No1.
A business utilized an AWS Direct Connect connection to transfer one petabyte of data from a colocation facility to an Amazon S3 bucket in the us-east-1 Region. The business now wishes to replicate the data in another S3 bucket located in the us-west-2 Region. Which solution will satisfy this criterion?
A. Use an AWS Snowball Edge Storage Optimized device to copy the data from the colocation facility to us-west-2.
B. Use the S3 console to copy the data from the source S3 bucket to the target S3 bucket.
C. Use S3 Transfer Acceleration and the S3 copy-object command to copy the data from the source S3 bucket to the target S3 bucket.
D. Add an S3 Cross-Region Replication configuration to copy the data from the source S3 bucket to the target S3 bucket.
한 기업은 AWS Direct Connect 연결을 활용하여 코로케이션 시설에서 us-east-1 리전의 Amazon S3 버킷으로 1페타바이트의 데이터를 전송했습니다. 이제 비즈니스는 us-west-2 리전에 있는 다른 S3 버킷에 데이터를 복제하려고 합니다. 어떤 솔루션이 이 기준을 만족할까요?
A. AWS Snowball Edge Storage Optimized 디바이스를 사용하여 코로케이션 시설에서 us-west-2로 데이터를 복사합니다.
B. S3 콘솔을 사용하여 소스 S3 버킷에서 대상 S3 버킷으로 데이터를 복사합니다.
C. S3 Transfer Acceleration 및 S3 copy-object 명령을 사용하여 원본 S3 버킷에서 대상 S3 버킷으로 데이터를 복사합니다.
D. S3 교차 리전 복제 구성을 추가하여 소스 S3 버킷에서 대상 S3 버킷으로 데이터를 복사합니다.
D
AWS Direct Connect 연결을 활용하여 코로케이션 시설에서 us-east-1의 S3 버킷으로 1페타바이트의 데이터를 전송하는게 있는데 이제는 us-east-1에 있는 S3로도 복제하려한다. S3 Cross-Region Replication configuration 추가하여 데이터를 복사합니다.
(7월25일 기출)
No2.
A business created a stateless two-tier application using Amazon EC2 in a single Availability Zone and an Amazon RDS Multi-AZ database instance. The new administration of the organization wants to guarantee that the application is highly accessible. What actions should a solutions architect do in order to satisfy this requirement?
A. Configure the application to use Multi-AZ EC2 Auto Scaling and create an Application Load Balancer.
B. Configure the application to take snapshots of the EC2 instances and send them to a different AWS Region.
C. Configure the application to use Amazon Route 53 latency-based routing to feed requests to the application.
D. Configure Amazon Route 53 rules to handle incoming requests and create a Multi-AZ Application Load Balancer.
기업은 단일 가용 영역 Amazon EC2를 사용하고 Amazon RDS 다중 AZ 데이터베이스 인스턴스에서 상태 비저장 2계층 애플리케이션을 운영합니다. 조직의 새 관리자는 응용 프로그램의 액세스 가용성을 높이려고 합니다. 이 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까?
A. 다중 AZ EC2 Auto Scaling을 사용하도록 애플리케이션을 구성하고 Application Load Balancer를 생성합니다.
B. EC2 인스턴스의 스냅샷을 생성하여 다른 AWS 리전으로 보내도록 애플리케이션을 구성합니다.
C. Amazon Route 53 지연 시간 기반 라우팅을 사용하여 애플리케이션에 요청을 제공하도록 애플리케이션을 구성합니다.
D. 수신 요청을 처리하고 다중 AZ 애플리케이션 로드 밸런서를 생성하도록 Amazon Route 53 규칙을 구성합니다.
A
2 티어 어플리케이션이있다. 이건 single AZ EC2 & Multi-AZ RDS 새 관리자가 highly accessible 를 원한다. Multi-AZ EC2 Auto Scaling을 사용하도록 애플리케이션을 구성하고 Application Load Balancer를 생성합니다.
(7월1일, 7월25일 기출)
No3.
A business is building an ecommerce solution that will have a load-balanced front end, a container-based application, and a relational database. A solutions architect must design a highly accessible system that requires little human intervention. Which solutions satisfy these criteria? (Select two.)
A. Create an Amazon RDS DB instance in Multi-AZ mode.
B. Create an Amazon RDS DB instance and one or more replicas in another Availability Zone.
C. Create an Amazon EC2 instance-based Docker cluster to handle the dynamic application load.
D. Create an Amazon Elastic Container Service (Amazon ECS) cluster with a Fargate launch type to handle the dynamic application load.
E. Create an Amazon Elastic Container Service (Amazon ECS) cluster with an Amazon EC2 launch type to handle the dynamic application load.
한 비즈니스에서 로드 밸런싱된 프런트 엔드, 컨테이너 기반 응용 프로그램 및 관계형 데이터베이스가 있는 전자 상거래 솔루션을 구축하고 있습니다. 솔루션 설계자는 사람의 개입이 거의 필요하지 않은 접근성이 높은 시스템을 설계해야 합니다. 어떤 솔루션이 이러한 기준을 충족합니까? (2개를 선택하세요.)
A. 다중 AZ 모드에서 Amazon RDS DB 인스턴스를 생성합니다.
B. 다른 가용 영역에 Amazon RDS DB 인스턴스와 하나 이상의 읽기 복제본을 생성합니다.
C. 동적 애플리케이션 로드를 처리할 Amazon EC2 인스턴스 기반 Docker 클러스터를 생성합니다.
D. Fargate 시작 유형으로 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성하여 동적 애플리케이션 로드를 처리합니다.
E. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 시작 유형으로 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
A,D
이커머스 솔루션을 구축중이다. 이건 컨테이너 기반의 load-balanced front end가 있고 relational database가 있다. highly accessible하게 설계하고싶다.
- RDS를 Multi-AZ mode 만든다.
- Fargate 런치 타입으로 Amazon ECS 클러스터를 생성하여 동적 애플리케이션 로드를 처리합니다.
(7월25일, 7월26일 기출)
No4.
A solutions architect is developing a solution that will need frequent modifications to a website hosted on Amazon S3 with versioning enabled. Due to compliance requirements, older versions of the objects will be seldom accessed and will need to be removed after two years. What should the solutions architect propose as the CHEAPEST way to achieve these requirements?
A. Use S3 batch operations to replace object tags. Expire the objects based on the modified tags.
B. Configure an S3 Lifecycle policy to transition older versions of objects to S3 Glacier. Expire the objects after 2 years.
C. Enable S3 Event Notifications on the bucket that sends older objects to the Amazon Simple Queue Service (Amazon SQS) queue for further processing.
D. Replicate older object versions to a new bucket. Use an S3 Lifecycle policy to expire the objects in the new bucket after 2 years.
솔루션 설계자는 버전 관리가 활성화된 Amazon S3에서 호스팅되는 웹 사이트를 자주 수정해야 하는 솔루션을 개발하고 있습니다. 규정 준수 요구 사항으로 인해 이전 버전의 개체는 거의 액세스되지 않으며 2년 후에는 제거해야 합니다. 솔루션 설계자는 이러한 요구 사항을 달성하기 위한 가장 저렴한 방법으로 무엇을 제안해야 합니까?
A. S3 일괄 작업을 사용하여 객체 태그를 교체합니다. 수정된 태그를 기반으로 개체를 만료합니다.
B. 이전 버전의 객체를 S3 Glacier로 전환하도록 S3 수명 주기 정책을 구성합니다. 2년 후에 객체를 만료합니다.
C. 추가 처리를 위해 이전 객체를 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내는 버킷에서 S3 이벤트 알림을 활성화합니다.
D. 이전 객체 버전을 새 버킷에 복제합니다. S3 수명 주기 정책을 사용하여 2년 후에 새 버킷의 객체를 만료시킵니다.
B
자주 수정되는 Amazon S3에서 호스팅 되는 web사이트를 개발중 (버저닝 on) Old 버전은 드물게 accessed되며 2년뒤에 지움 가장싸게 하는방법?
S3라이프 사이클을 설정. 이전버전은 S3 Glacier로 가도록하고 2년후에 만료시킵니다.
(7월1일, 7월10일, 7월25일, 7월26일 기출)
다른 내용 및 보기는 동일한데 "이전 버전의 개체는 자주 액세스되며 2년후에 제거해야 합니다." 로 변형되어 D 번을 선택했습니다 → 이렇게 변형되어 출제
No5.
A three-tier web application is used to handle client orders. The web tier is made up of Amazon EC2 instances behind an Application Load Balancer, a middle tier made up of three EC2 instances that are isolated from the web layer through Amazon SQS, and an Amazon DynamoDB backend. During busy periods, consumers who place purchases through the site must wait much longer than usual for confirmations owing to prolonged processing delays. A solutions architect's objective should be to minimize these processing times. Which course of action will be the MOST EFFECTIVE in achieving this?
A. Replace the SQS queue with Amazon Kinesis Data Firehose.
B. Use Amazon ElastiCache for Redis in front of the DynamoDB backend tier.
C. Add an Amazon CloudFront distribution to cache the responses for the web tier.
D. Use Amazon EC2 Auto Scaling to scale out the middle tier instances based on the SQS queue depth.
3계층 웹 애플리케이션은 클라이언트 주문을 처리하는 데 사용됩니다. 웹 계층은 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스, Amazon SQS를 통해 웹 계층에서 격리된 3개의 EC2 인스턴스로 구성된 중간 계층, Amazon DynamoDB 백엔드로 구성됩니다. 성수기에는 사이트를 통해 구매하는 소비자가 처리 지연 시간이 길어져 평소보다 훨씬 더 오래 기다려야 합니다. 솔루션 설계자의 목표는 이러한 처리 시간을 최소화하는 것입니다. 이를 달성하는 데 가장 효과적인 조치는 무엇입니까?
A. SQS 대기열을 Amazon Kinesis Data Firehose로 교체합니다.
B. DynamoDB 백엔드 계층 앞에서 Redis용 Amazon ElastiCache를 사용합니다.
C. Amazon CloudFront 배포를 추가하여 웹 계층에 대한 응답을 캐시합니다.
D. Amazon EC2 Auto Scaling을 사용하여 SQS 대기열 깊이를 기반으로 중간 계층 인스턴스를 확장합니다.
D
3티어 Web APP
- Web 티어 : EC2 + ALB
- 미들 티어 : EC2 3대, Amazon SQS를 통해 Web 티어에서 격리됩니다.
- 백엔드 : DynamoDB 바쁠때, 사이트를 통해 구매하는 소비자가 처리 지연 시간이 길어져 오래 기다려야합니다.
MOST EFFECTIVE(가장효과적으로)하게 해결하는 방법?
Auto Scaling을 사용하여 SQS 대기열 depth를 기반으로 미들티어 인스턴스를 스케일 아웃
(6월 25일 기출)
No6.
A solutions architect is in the process of implementing a distributed database across many Amazon EC2 instances. The database replicates all data across numerous instances to ensure that it can survive the loss of single instance. The database needs block storage that is low in latency and high in throughput in order to accommodate several million transactions per second per server. Which storage option should the architect of solutions use?
A. EBS Amazon Elastic Block Store (Amazon EBS)
B. Amazon EC2 instance store
C. Amazon Elastic File System (Amazon EFS)
D. Amazon S3
솔루션 설계자는 많은 Amazon EC2 인스턴스에 분산 데이터베이스를 구현하는 과정에 있습니다. 데이터베이스는 단일 인스턴스의 손실을 견딜 수 있도록 여러 인스턴스에 걸쳐 모든 데이터를 복제합니다. 데이터베이스는 서버당 초당 수백만 건의 트랜잭션을 수용하기 위해 대기 시간이 짧고 처리량이 높은 블록 스토리지가 필요합니다. 솔루션 설계자는 어떤 스토리지 옵션을 사용해야 합니까?
A. EBS Amazon Elastic Block Store(Amazon EBS)
B. Amazon EC2 인스턴스 스토어
C. Amazon Elastic File System(Amazon EFS)
D. 아마존 S3
B
여러 EC2 인스턴스에 분산 데이터베이스를 구현하는 과정에 있습니다. DB는 단일 인스턴스의 손실을 견딜 수 있도록 수많은 인스턴스에 걸쳐 모든 데이터를 복제합니다. DB는 서버당 초당 수백만 건의 트랜잭션을 수용하기 위해 대기 시간이 짧고 처리량이 높은 블록 스토리지가 필요합니다.
(6월 16일 기출)
No7.
A business hosts a web application on Amazon Web Services (AWS) utilizing a single Amazon EC2 instance that saves user-uploaded documents in an Amazon Elastic Block Store (Amazon EBS) volume. To improve scalability and availability, the organization replicated the architecture and deployed a second EC2 instance and EBS volume in a different Availability Zone, both of which were placed behind an Application Load Balancer. After this update was made, users claimed that each time they refreshed the page, they could view a portion of their papers but never all of them. What should a solutions architect suggest to guarantee that users have access to all of their documents simultaneously?
A. Copy the data so both EBS volumes contain all the documents.
B. Configure the Application Load Balancer to direct a user to the server with the documents.
C. Copy the data from both EBS volumes to Amazon Elastic File System (Amazon EFS). Modify the application to save new documents to Amazon Elastic File System (Amazon EFS).
D. Configure the Application Load Balancer to send the request to both servers. Return each document from the correct server.
기업은 Amazon Elastic Block Store(Amazon EBS) 볼륨에 사용자 업로드 문서를 저장하는 단일 Amazon EC2 인스턴스를 사용하여 Amazon Web Services(AWS)에서 웹 애플리케이션을 호스팅합니다. 확장성과 가용성을 개선하기 위해 조직은 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 배포했습니다. 이 두 가지 모두 Application Load Balancer 뒤에 배치되었습니다. 이 업데이트가 이루어진 후 사용자는 페이지를 새로 고칠 때마다 논문의 일부를 볼 수 있지만 전체를 볼 수는 없다고 주장했습니다. 솔루션 설계자는 사용자가 모든 문서에 동시에 액세스할 수 있도록 보장하기 위해 무엇을 제안해야 합니까?
A. 두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다.
B. 문서가 있는 서버로 사용자를 안내하도록 Application Load Balancer를 구성합니다.
C. 두 EBS 볼륨의 데이터를 Amazon Elastic File System(Amazon EFS)으로 복사합니다. 새 문서를 Amazon Elastic File System(Amazon EFS)에 저장하도록 애플리케이션을 수정합니다.
D. 두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환하십시오.
C
EBS와 EFS의 가장 큰 차이점 중 하나는 EBS는 단일 AZ안에서만 접근이 가능한 저장소인 반면, EFS는 다중 AZ안에서도 접근이 가능한 저장소라는 점입니다. 위 문제에서는 초기 단일 AZ에서 운영하던 EC2 및 EBS를 복제한뒤 AZ를 2중화하여 멀티 EC2 및 EBS 시스템으로 구성하였지만, 각 AZ 내에서 공유되지 않는 EBS 저장소를 별도로 운영하였기때문에 고객들에게 일관성있는 데이터를 제공할 수 없었던 것으로 보입니다. 이는 각 AZ의 EC2 인스턴스가 동일한 저장소를 공유하도록 함으로써 해결할 수 있을 것 같습니다. 초기 EBS에 저장되어있던 데이터들을 일관성있게 보정하여 EFS로 일회성 마이그레이션을 수행한뒤 EC2 어플리케이션 서버 인스턴스가 EBS가 아닌 EFS에 데이터를 저장하도록 변경하는 것이 바람직해보입니다.
(7월 1일 기출)
No8.
A business may have many AWS accounts for different departments. One of the departments would want to share an Amazon S3 bucket with the rest of the organization. Which of the following solutions requires the LEAST amount of effort?
A. Enable cross-account S3 replication for the bucket.
B. Create a pre-signed URL for the bucket and share it with other departments.
C. Set the S3 bucket policy to allow cross-account access to other departments.
D. Create IAM users for each of the departments and configure a read-only IAM policy.
비즈니스에는 여러 부서에 대해 여러 AWS 계정이 있을 수 있습니다. 부서 중 하나는 Amazon S3 버킷을 나머지 조직과 공유하려고 합니다. 다음 솔루션 중 가장 적은 노력이 필요한 솔루션은 무엇입니까?
A. 버킷에 대해 교차 계정 S3 복제를 활성화합니다.
B. 버킷에 대해 미리 서명된 URL을 생성하고 다른 부서와 공유합니다.
C. 다른 부서에 대한 교차 계정 액세스를 허용하도록 S3 버킷 정책을 설정합니다.
D. 각 부서에 대한 IAM 사용자를 생성하고 읽기 전용 IAM 정책을 구성합니다.
C
A : 버킷을 복제하려고 하는 것이 아니라 공유하려고 하는 것이다. 너무 부정확하다.
B : 작동할 수 있지만, 다른 모든 부서와 공유를 조정하고 있습니다. 2개 부서일 수도 있고 100개 부서일 수도 있는데 모르시겠죠.
C : 공유하려는 리소스에 대한 정책을 수정하기 때문에 가장 쉽습니다. 최소한의 노력으로 수정해야 하는 단일 작업입니다.
D : B가 할 수 있는 대로 일을 할 수 있지만, 부서의 양에 따라 엄청난 노력을 하고 있습니다.
(7월 10일, 7월 11일, 7월 21일, 7월 25일, 7월 26일 기출)
No9.
A business is in the process of deploying a data lake on Amazon Web Services (AWS). An architect of solutions must describe the encryption approach for data in transit and at rest. Amazon S3/ The following is stated in the company's security policy: - Keys must be rotated every 90 days. - Strict separation of duties between key users and key administrators must be implemented. - Auditing key usage must be possible. What solutions architect recommendations should be made?
A. Server-side encryption with AWS KMS managed keys (SSE-KMS) with customer managed customer master keys (CMKs)
B. Server-side encryption with AWS KMS managed keys (SSE-KMS) with AWS managed customer master keys (CMKs)
C. Server-side encryption with Amazon S3 managed keys (SSE-S3) with customer managed customer master keys (CMKs)
D. Server-side encryption with Amazon S3 managed keys (SSE-S3) with AWS managed customer master keys (CMKs)
Amazon Web Services(AWS)에 데이터 레이크를 배포하는 과정에 있습니다. 솔루션 설계자는 전송 및 저장 데이터에 대한 암호화 접근 방식을 설명해야 합니다. Amazon S3/ 회사의 보안정책에 다음과 같이 명시되어 있습니다. - 키는 90일마다 교체해야 합니다. - 키 사용자와 키 관리자 사이의 엄격한 권한 분리가 구현되어야 합니다. - 키 사용량 모니터링이 가능해야 합니다. 솔루션 아키텍트가 어떤 액션을 권장해야 합니까?
A. 고객 관리형 고객 마스터 키(CMK), AWS KMS 관리형 키(SSE-KMS)를 사용한 서버 측 암호화
B. AWS 관리형 고객 마스터 키(CMK), AWS KMS 관리형 키(SSE-KMS)를 사용한 서버 측 암호화
C. 고객 관리형 고객 마스터 키(CMK), Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화
D. AWS 관리형 고객 마스터 키(CMK), Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화
A
서버측 암호화
1. Amazon S3관리형 키(SSE-S3)
2. AWS KMS 관리형 키(SSE-KMS) (O) A, B
- 키 사용 주체 및 사용 시기 감사 추적
- 고객 관리형 마스터키 사용 가능
3. 고객 제공 키(SSE-C)
클라이언트측 암호화
1. AWS 관리형 고객 마스터키(CSE-KMS)
- AWS가 키관리하고 1년마다 키 교체(2022년 5월부터 기존 3년 -> 1년으로 변경)
2. 고객 관리형 마스터키(CSE-C) (O) A, C
- 고객이 키관리하고 자율주기로 키 교체
(7월 10일, 7월 22일 기출)
No10.
A solutions architect is tasked with the responsibility of developing a robust solution for Windows users' home directories. The solution must have fault tolerance, file-level backup and recovery, and access control, all of which must be based on the Active Directory of the business. Which storage option satisfies these criteria?
A. Configure Amazon S3 to store the users' home directories. Join Amazon S3 to Active Directory.
B. Configure a Multi-AZ file system with Amazon FSx for Windows File Server. Join Amazon FSx to Active Directory.
C. Configure Amazon Elastic File System (Amazon EFS) for the users' home directories. Configure AWS Single Sign-On with Active Directory.
D. Configure Amazon Elastic Block Store (Amazon EBS) to store the users' home directories. Configure AWS Single Sign-On with Active Directory.
솔루션 설계자는 Windows 사용자의 홈 디렉토리를 위한 강력한 솔루션을 개발하는 책임을 맡습니다. 솔루션에는 내결함성, 파일 수준 백업 및 복구, 액세스 제어가 있어야 하며 이 모든 것은 비즈니스의 Active Directory를 기반으로 해야 합니다. 이 기준을 충족하는 스토리지 옵션은 무엇입니까?
A. 사용자의 홈 디렉터리를 저장하도록 Amazon S3를 구성합니다. Amazon S3를 Active Directory에 가입합니다.
B. Windows 파일 서버용 Amazon FSx를 사용하여 다중 AZ 파일 시스템을 구성합니다. Amazon FSx를 Active Directory에 가입합니다.
C. 사용자의 홈 디렉터리에 대해 Amazon Elastic File System(Amazon EFS)을 구성합니다. Active Directory로 AWS Single Sign-On을 구성합니다.
D. 사용자의 홈 디렉터리를 저장하도록 Amazon Elastic Block Store(Amazon EBS)를 구성합니다. Active Directory로 AWS Single Sign-On을 구성합니다.
B
Amazon FSx for Windows File Server - Windows Server에 구축되는 완전관리형 파일 스토리지
(7월 21일, 7월 25일, 7월 26일 기출)
No11.
The application running on Amazon EC2 instances requires access to an Amazon S3 bucket. Due to the sensitivity of the data, it cannot be sent via the internet. What configuration should a solutions architect make for access?
A. Create a private hosted zone using Amazon Route 53.
B. Configure a VPC gateway endpoint for Amazon S3 in the VPC.
C. Configure AWS PrivateLink between the EC2 instance and the S3 bucket.
D. Set up a site-to-site VPN connection between the VPC and the S3 bucket.
Amazon EC2 인스턴스에서 실행되는 애플리케이션은 Amazon S3 버킷에 대한 액세스 권한이 필요합니다. 데이터는 소중한 정보라서 인터넷을 통해 전송하면 안됩니다. 솔루션 설계자는 액세스를 위해 어떤 구성을 해야 합니까?
A. Amazon Route 53을 사용하여 프라이빗 호스팅 영역을 생성합니다.
B. VPC에서 Amazon S3용 VPC 게이트웨이 엔드포인트를 구성합니다.
C. EC2 인스턴스와 S3 버킷 간에 AWS PrivateLink를 구성합니다.
D. VPC와 S3 버킷 간에 사이트 간 VPN 연결을 설정합니다.
B
리전 안에 VPC를 구성하여 격리된 네트워크 환경을 구축하고, 그 안에 EC2 인스턴스 등을 띄워 시스템을 만들게 됩니다. 하지만, S3와 DynamoDB는 동일한 리전안에 있기는 하지만, VPC 내부가 아닌 외부에 존재하는 서비스로, VPC 내부의 인스턴스들과는 기본적으로 통신이 불가합니다. 통신을 하려면 인터넷게이트웨이를 통해 인터넷을 경유하는 방법 혹은 VPC 엔드포인트를 생성하여 인터넷을 경유하지 않고 AWS 네트워크 내에서 직접 통신하는 방법이 가능합니다.
(7월1일, 7월25일, 7월 26일 기출)
No12.
A software company is launching a new software-as-a-service (SaaS) solution that will be used by a large number of Amazon Web Services (AWS) customers. The service is hosted inside a Virtual Private Cloud (VPC) behind a Network Load Balancer. The software manufacturer want to give users with access to this service with as little administrative overhead as possible and without exposing the service to the public internet. What actions should a solutions architect take to achieve this objective?
A. Create a peering VPC connection from each user's VPC to the software vendor's VPC.
B. Deploy a transit VPC in the software vendor's AWS account. Create a VPN connection with each user account.
C. Connect the service in the VPC with an AWS Private Link endpoint. Have users subscribe to the endpoint.
D. Deploy a transit VPC in the software vendor's AWS account. Create an AWS Direct Connect connection with each user account.
다수의 Amazon Web Services(AWS) 고객이 사용할 새로운 SaaS(Software-as-a-Service) 솔루션을 출시합니다. 이 서비스는 Network Load Balancer 뒤의 Virtual Private Cloud(VPC) 내부에서 호스팅됩니다. 소프트웨어 제조업체는 서비스를 공용 인터넷에 노출하지 않고 가능한 한 적은 관리 오버헤드로 사용자가 이 서비스에 액세스할 수 있도록 하려고 합니다. 솔루션 설계자는 이 목표를 달성하기 위해 어떤 조치를 취해야 합니까?
A. 각 사용자의 VPC에서 소프트웨어 공급업체의 VPC로 피어링 VPC 연결을 생성합니다.
B. 소프트웨어 공급업체의 AWS 계정에 transit VPC를 배포합니다. 각 사용자 계정으로 VPN 연결을 만듭니다.
C. VPC의 서비스를 AWS Private Link 엔드포인트와 연결합니다. 사용자가 엔드포인트를 구독하도록 합니다.
D. 소프트웨어 공급업체의 AWS 계정에 전송 VPC를 배포합니다. 각 사용자 계정으로 AWS Direct Connect 연결을 생성합니다.
C
AWS PrivateLink는 지원되는 AWS 서비스, 기타 AWS 계정에서 호스팅된 서비스(VPC 엔드포인트 서비스) 및 지원되는 AWS Marketplace 파트너 서비스에 VPC를 비공개로 연결할 수 있도록 하는 가용성과 확장성이 높은 기술입니다. 서비스와 통신하는 데 인터넷 게이트웨이, NAT 디바이스, 퍼블릭 IP 주소, AWS Direct Connect 연결 또는 AWS Site-to-Site VPN 연결을 사용하지 않아도 됩니다. 따라서 VPC에서 연결할 수 있는 특정 API 엔드포인트, 사이트 및 서비스를 제어합니다.
(7월11일, 7월 21일, 7월25일, 7월26일 기출)
No13.
An Amazon EC2 instance is created in a new VPC's private subnet. Although this subnet lacks outward internet connectivity, the EC2 instance requires the ability to obtain monthly security updates from a third-party vendor. What actions should a solutions architect take to ensure that these criteria are met?
A. Create an internet gateway, and attach it to the VPC. Configure the private subnet route table to use the internet gateway as the default route.
B. Create a NAT gateway, and place it in a public subnet. Configure the private subnet route table to use the NAT gateway as the default route.
C. Create a NAT instance, and place it in the same subnet where the EC2 instance is located. Configure the private subnet route table to use the NAT instance as the default route.
D. Create an internet gateway, and attach it to the VPC. Create a NAT instance, and place it in the same subnet where the EC2 instance is located. Configure the private subnet route table to use the internet gateway as the default route.
새 VPC의 프라이빗 서브넷에 Amazon EC2 인스턴스가 생성됩니다. 이 서브넷에는 외부 인터넷 연결이 없지만 EC2 인스턴스에는 타사 공급업체로부터 월간 보안 업데이트를 받을 수 있는 기능이 필요합니다. 이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?
A. 인터넷 게이트웨이를 생성하여 VPC에 연결합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
B. NAT 게이트웨이를 생성하고 퍼블릭 서브넷에 배치합니다. NAT 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
C. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. NAT 인스턴스를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
D. 인터넷 게이트웨이를 생성하여 VPC에 연결합니다. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
B
Public subnet 이 아닌 Private subnet 에 호스팅된 EC2 인스턴스의 인터넷 연결과 관련한 대표적인 아키텍처를 묻는 문제입니다. Publick subnet에 NAT Gateway를 두어 Private subnet의 EC2 인스턴스가 인터넷으로 통신할 수 있도록합니다.
(7월25일, 7월26일 기출)
No14.
A firm is building a mobile game that sends score updates to a backend processor and then publishes the results on a leaderboard. A solutions architect must develop a solution capable of handling high volumes of traffic, processing mobile game updates in the order in which they are received, and storing the processed changes in a highly accessible database. Additionally, the organization wishes to reduce the management cost associated with maintaining the solution. What actions should the solutions architect take to ensure that these criteria are met?
A. Push score updates to Amazon Kinesis Data Streams. Process the updates in Kinesis Data Streams with AWS Lambda. Store the processed updates in Amazon DynamoDB.
B. Push score updates to Amazon Kinesis Data Streams. Process the updates with a fleet of Amazon EC2 instances set up for Auto Scaling. Store the processed updates in Amazon Redshift.
C. Push score updates to an Amazon Simple Notification Service (Amazon SNS) topic. Subscribe an AWS Lambda function to the SNS topic to process the updates. Store the processed updates in a SQL database running on Amazon EC2.
D. Push score updates to an Amazon Simple Queue Service (Amazon SQS) queue. Use a fleet of Amazon EC2 instances with Auto Scaling to process the updates in the SQS queue. Store the processed updates in an Amazon RDS Multi-AZ DB instance.
한 회사에서 점수 업데이트를 백엔드 프로세서로 보낸 다음 그 결과를 리더보드에 게시하는 모바일 게임을 구축하고 있습니다. 솔루션 설계자는 많은 양의 트래픽을 처리하고, 수신된 순서대로 모바일 게임 업데이트를 처리하고, 처리된 변경 사항을 액세스하기 쉬운 데이터베이스에 저장할 수 있는 솔루션을 개발해야 합니다. 또한 조직은 솔루션 유지 관리와 관련된 관리 비용을 줄이기를 원합니다. 솔루션 설계자는 이러한 기준을 충족하기 위해 어떤 조치를 취해야 합니까?
A. Amazon Kinesis Data Streams에 대한 푸시 점수 업데이트. AWS Lambda를 사용하여 Kinesis Data Streams의 업데이트를 처리합니다. 처리된 업데이트를 Amazon DynamoDB에 저장합니다.
B. Amazon Kinesis Data Streams에 대한 푸시 점수 업데이트. Auto Scaling용으로 설정된 Amazon EC2 인스턴스 집합으로 업데이트를 처리합니다. 처리된 업데이트를 Amazon Redshift에 저장합니다.
C. Amazon Simple Notification Service(Amazon SNS) 주제에 대한 푸시 점수 업데이트. AWS Lambda 함수를 SNS 주제에 구독하여 업데이트를 처리합니다. 처리된 업데이트를 Amazon EC2에서 실행되는 SQL 데이터베이스에 저장합니다.
D. 점수 업데이트를 Amazon Simple Queue Service(Amazon SQS) 대기열로 푸시합니다. Auto Scaling과 함께 Amazon EC2 인스턴스 집합을 사용하여 SQS 대기열의 업데이트를 처리합니다. 처리된 업데이트를 Amazon RDS 다중 AZ DB 인스턴스에 저장합니다.
A
점수 업데이트를 백엔드로 보낸 다음 결과를 리더보드에 게시하는 모바일 게임을 구축하고 있습니다. 많은 양의 트래픽을 처리하고, 수신된 순서대로 모바일 게임 업데이트를 처리하고, 처리된 변경 사항을 DB에 저장할 수 있는 솔루션을 개발해야 합니다. 그리고 관리 비용을 줄이고 싶습니다.
Amazon Kinesis Data Streams에 점수 업데이트를 푸시합니다.
AWS Lambda를 사용하여 업데이트를 처리합니다.
Amazon DynamoDB에 저장합니다.
(7월1일, 7월11일, 7월25일, 7월26일 기출)
No15.
A solutions architect must host a high-performance computing (HPC) workload on Amazon Web Services (AWS). The workload will be dispersed over hundreds of Amazon EC2 instances and will need concurrent access to a shared file system in order to facilitate distributed processing of big datasets. Multiple instances of the same dataset will be accessible concurrently. The workload demands an access latency of less than 1 millisecond. Following completion of processing, engineers will need access to the dataset for manual postprocessing. Which solution will satisfy these criteria?
A. Use Amazon Elastic File System (Amazon EFS) as a shared file system. Access the dataset from Amazon EFS.
B. Mount an Amazon S3 bucket to serve as the shared file system. Perform postprocessing directly from the S3 bucket.
C. Use Amazon FSx for Lustre as a shared file system. Link the file system to an Amazon S3 bucket for postprocessing.
D. Configure AWS Resource Access Manager to share an Amazon S3 bucket so that it can be mounted to all instances for processing and postprocessing.
솔루션 설계자는 Amazon Web Services(AWS)에서 고성능 컴퓨팅(HPC) 워크로드를 호스팅해야 합니다. 워크로드는 수백 개의 Amazon EC2 인스턴스에 분산되며 큰 데이터 세트의 분산 처리를 용이하게 하기 위해 공유 파일 시스템에 대한 동시 액세스가 필요합니다. 동일한 데이터 세트에 여러 인스턴스가 동시에 액세스할 수 있습니다. 워크로드는 1밀리초 미만의 액세스 대기 시간을 요구합니다. 처리 완료 후 엔지니어는 수동 후처리를 위해 데이터세트에 액세스해야 합니다. 어떤 솔루션이 이러한 기준을 충족할까요?
A. Amazon Elastic File System(Amazon EFS)을 공유 파일 시스템으로 사용하십시오. Amazon EFS에서 데이터 세트에 액세스합니다.
B. 공유 파일 시스템으로 사용할 Amazon S3 버킷을 탑재합니다. S3 버킷에서 직접 후처리를 수행합니다.
C. Lustre용 Amazon FSx를 공유 파일 시스템으로 사용합니다. 후처리를 위해 파일 시스템을 Amazon S3 버킷에 연결합니다.
D. 처리 및 사후 처리를 위해 모든 인스턴스에 탑재할 수 있도록 Amazon S3 버킷을 공유하도록 AWS Resource Access Manager를 구성합니다.
C
아마존 FSx도 아마존 S3와 통합돼 러스터 고성능 파일 시스템으로 클라우드 데이터 세트를 쉽게 처리할 수 있습니다. S3 버킷에 연동되면 FSx for Lustre 파일 시스템은 S3 객체를 투명하게 파일로 제시하고 변경된 데이터를 S3로 다시 작성할 수 있습니다
(7월1일, 7월23일, 7월25일, 7월26일 기출)
7월26일 기출 Lustre 2문제 출제
No16.
A multinational conglomerate with operations in North America, Europe, and Asia is developing a new distributed application to improve its worldwide supply chain and manufacturing processes. Orders placed on a single continent should be accessible to all Regions in less than a second. The database should be capable to failover with a minimal Recovery Time Objective (RTO). The application's uptime is critical to ensuring that production does not suffer. What recommendations should a solutions architect make?
A. Use Amazon DynamoDB global tables.
B. Use Amazon Aurora Global Database.
C. Use Amazon RDS for MySQL with a cross-Region read replica.
D. Use Amazon RDS for PostgreSQL with a cross-Region read replica.
북미, 유럽 및 아시아에서 사업을 운영하는 다국적 대기업은 전 세계 공급망 및 제조 프로세스를 개선하기 위해 새로운 분산 애플리케이션을 개발하고 있습니다. 단일 대륙에서 이루어진 주문은 1초 이내에 모든 지역에서 액세스할 수 있어야 합니다. 데이터베이스는 최소한의 RTO(복구 시간 목표)로 장애 조치를 수행할 수 있어야 합니다. 애플리케이션의 가동 시간은 운영계에 문제가 발생하지 않도록 하는 데 매우 중요합니다. 솔루션 설계자는 어떤 권장 사항을 제시해야 합니까?
A. Amazon DynamoDB 전역 테이블을 사용합니다.
B. Amazon Aurora 글로벌 데이터베이스를 사용합니다.
C. 리전 간 읽기 전용 복제본과 함께 MySQL용 Amazon RDS를 사용합니다.
D. 교차 리전 읽기 전용 복제본과 함께 PostgreSQL용 Amazon RDS를 사용합니다.
B
본문의 1초 이내 처리 요구사항은 aurora와 dynamodb 모두 만족합니다. 복구시간은 본문에 최소시간이라고만 언급되어 초단위인지 분단위인지는 명확하지 않습니다. (문서에는 오로라는 분단위라고 언급되나 dynamodb는 언급이 없음) 두 데이터베이스의 중요한 차이점은 관계형 db 와 nosql 의 차이이며 처리해야 할 트랜잭션은 주문(order)이므로 이는 관계형 db를 통한 처리에 적합한 유형입니다.
(7월1일, 7월23일 기출)
No17.
A business want to run a scalable web application on Amazon Web Services. The program will be accessible by people from all around the globe. Users of the application will be able to download and upload unique data in the gigabyte range. The development team is looking for an economical solution that minimizes upload and download latency and optimizes speed. What actions should a solutions architect take to achieve this?
A. Use Amazon S3 with Transfer Acceleration to host the application.
B. Use Amazon S3 with CacheControl headers to host the application.
C. Use Amazon EC2 with Auto Scaling and Amazon CloudFront to host the application.
D. Use Amazon EC2 with Auto Scaling and Amazon ElastiCache to host the application.
기업은 Amazon Web Services에서 확장 가능한 웹 애플리케이션을 실행하기를 원합니다. 이 프로그램은 전 세계 사람들이 액세스할 수 있습니다. 애플리케이션 사용자는 기가바이트 범위의 고유한 데이터를 다운로드하고 업로드할 수 있습니다. 개발 팀은 업로드 및 다운로드 지연을 최소화하고 속도를 최적화하는 경제적인 솔루션을 찾고 있습니다. 솔루션 설계자는 이를 달성하기 위해 어떤 조치를 취해야 합니까?
A. Transfer Acceleration이 포함된 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
B. CacheControl 헤더가 있는 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
C. Auto Scaling 및 Amazon CloudFront와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
D. Auto Scaling과 함께 Amazon EC2 및 Amazon ElastiCache를 사용하여 애플리케이션을 호스팅합니다.
A
프로그램은 전 세계의 사람들이 액세스할 수 있습니다. 사용자는 기가바이트 범위의 데이터를 다운로드하고 업로드할 수 있습니다. 개발팀은 업로드 및 다운로드 지연을 최소화하고 속도를 최적화하는 경제적인 솔루션을 찾고 있습니다.
Transfer Acceleration과 함께 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
(6월30일 기출)
No18.
A corporation uses AWS to power its two-tier ecommerce website. The web tier is comprised of a load balancer that routes traffic to Amazon Elastic Compute Cloud machines. The database layer is implemented using an Amazon RDS database instance. The EC2 instances and the RDS database instance should not be made publicly accessible. Internet connectivity is required for the EC2 instances to complete payment processing of orders through a third-party web service. The application must have a high degree of availability. Which setup alternatives will satisfy these requirements? (Select two.)
A. Use an Auto Scaling group to launch the EC2 instances in private subnets. Deploy an RDS Multi-AZ DB instance in private subnets.
B. Configure a VPC with two private subnets and two NAT gateways across two Availability Zones. Deploy an Application Load Balancer in the private subnets.
C. Use an Auto Scaling group to launch the EC2 instances in public subnets across two Availability Zones. Deploy an RDS Multi-AZ DB instance in private subnets.
D. Configure a VPC with one public subnet, one private subnet, and two NAT gateways across two Availability Zones. Deploy an Application Load Balancer in the public subnet.
E. Configure a VPC with two public subnets, two private subnets, and two NAT gateways across two Availability Zones. Deploy an Application Load Balancer in the public subnets.
한 기업에서 AWS를 사용하여 2계층 전자상거래 웹사이트를 운영하고 있습니다. 웹 계층은 트래픽을 Amazon Elastic Compute Cloud(ec2) 인스턴스로 라우팅하는 로드 밸런서로 구성됩니다. 데이터베이스 계층은 Amazon RDS 데이터베이스 인스턴스를 사용하여 구현됩니다. EC2 인스턴스와 RDS 데이터베이스 인스턴스는 공개적으로 액세스할 수 없도록 설정해야 합니다. EC2 인스턴스가 타사 웹 서비스를 통한 주문 결제 처리를 완료하려면 인터넷 연결이 필요합니다. 애플리케이션의 가용성이 높아야 합니다. 이러한 요구 사항을 충족하는 설정 대안은 무엇입니까? (2개를 선택하세요.)
A. Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
B. 2개의 가용 영역에 걸쳐 2개의 프라이빗 서브넷과 2개의 NAT 게이트웨이가 있는 VPC를 구성합니다. 프라이빗 서브넷에 Application Load Balancer를 배포합니다.
C. Auto Scaling 그룹을 사용하여 2개의 가용 영역에 걸쳐 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
D. 2개의 가용 영역에 걸쳐 1개의 퍼블릭 서브넷, 1개의 프라이빗 서브넷 및 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
E. 2개의 가용 영역에 걸쳐 2개의 퍼블릭 서브넷, 2개의 프라이빗 서브넷 및 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
A,E
프라이빗 서브넷이 인터넷에 연결되려면 NAT를 이용해야하는데 NAT는 퍼블릭 서브넷에서 생성되어야 합니다. B, D는 Private에서 NAT가 생성되어 틀린 답이 되고, C는 퍼블릭 서브넷에서 EC2를 시작했기 때문에 답은 A, E 가 됩니다.
(6월25일, 7월23일 기출)
No19.
A business seeks to construct a scalable key management infrastructure to assist developers in encrypting data inside their apps. How might a solutions architect alleviate operational burdens?
A. Use multi-factor authentication (MFA) to protect the encryption keys.
B. Use AWS Key Management Service (AWS KMS) to protect the encryption keys.
C. Use AWS Certificate Manager (ACM) to create, store, and assign the encryption keys.
D. Use an IAM policy to limit the scope of users who have access permissions to protect the encryption keys.
기업은 확장 가능한 키 관리 인프라를 구축하여 개발자가 앱 내부의 데이터를 암호화할 수 있도록 지원하려고 합니다. 솔루션 설계자는 어떻게 운영 부담을 완화할 수 있습니까?
A. MFA(다단계 인증)를 사용하여 암호화 키를 보호합니다.
B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
D. IAM 정책을 사용하여 암호화 키를 보호할 수 있는 액세스 권한이 있는 사용자의 범위를 제한합니다.
B
AWS Certificate Manager(ACM)은 AWS 웹 사이트와 애플리케이션을 보호하는 퍼블릭 및 프라이빗 SSL/TLS X.509 인증서와 키를 만들고, 저장하고, 갱신하는 복잡성을 처리합니다. 따라서 C는 이문제와 상관 없습니다.
(7월 1일 기출)
No20.
A solutions architect must create a solution that stores a static website using Amazon CloudFront and an Amazon S3 origin. According to the company's security policy, every website traffic must be reviewed by AWS WAF. How should the solutions architect adhere to these specifications?
A. Configure an S3 bucket policy to accept requests coming from the AWS WAF Amazon Resource Name (ARN) only.
B. Configure Amazon CloudFront to forward all incoming requests to AWS WAF before requesting content from the S3 origin.
C. Configure a security group that allows Amazon CloudFront IP addresses to access Amazon S3 only. Associate AWS WAF to CloudFront.
D. Configure Amazon CloudFront and Amazon S3 to use an origin access identity (OAI) to restrict access to the S3 bucket. Enable AWS WAF on the distribution.
솔루션 설계자는 Amazon CloudFront 및 Amazon S3 오리진을 사용하여 정적 웹 사이트를 저장하는 솔루션을 생성해야 합니다. 회사의 보안 정책에 따라 모든 웹 사이트 트래픽은 AWS WAF에서 검토되어야 합니다. 솔루션 설계자는 이러한 사양을 어떻게 준수해야 합니까?
A. AWS WAF Amazon 리소스 이름(ARN)에서 오는 요청만 수락하도록 S3 버킷 정책을 구성합니다.
B. S3 오리진에서 콘텐츠를 요청하기 전에 수신되는 모든 요청을 AWS WAF로 전달하도록 Amazon CloudFront를 구성합니다.
C. Amazon CloudFront IP 주소가 Amazon S3에만 액세스하도록 허용하는 보안 그룹을 구성합니다. AWS WAF를 CloudFront에 연결합니다.
D. 원본 액세스 ID(OAI)를 사용하여 S3 버킷에 대한 액세스를 제한하도록 Amazon CloudFront 및 Amazon S3를 구성합니다. 배포에서 AWS WAF를 활성화합니다.
D
[OAI 설정 개요]
Amazon S3 버킷을 CloudFront 배포의 오리진으로 처음 설정하면 모든 사용자에게 버킷의 파일에 대한 권한을 부여하게 됩니다. 이렇게 하면 누구나 CloudFront 또는 Amazon S3 URL을 통해 파일에 액세스할 수 있습니다. CloudFront는 Amazon S3 URL을 공개하지 않지만, 애플리케이션이 Amazon S3에서 직접 객체를 제공하거나 누군가가 Amazon S3의 특정 파일에 대한 직접 링크를 제공하는 경우 사용자가 해당 URL을 가지게 될 수 있습니다.
[Amazon S3 버킷에서 제공하는 콘텐츠에 대한 액세스를 제한]
1. 원본 액세스 ID(OAI)라는 특수 CloudFront 사용자를 만들어 배포와 연결합니다.
2. CloudFront에서 OAI를 사용하여 버킷의 파일을 액세스해 사용자에게 제공할 수 있도록 S3 버킷 권한을 구성합니다. 사용자가 S3 버킷에 대한 직접 URL을 사용하여 파일에 액세스할 수 없도록 해야 합니다. (이 단계를 수행하면 사용자가 S3 버킷에서 직접 액세스하지 않고 CloudFront를 통해서만 파일에 액세스할 수 있습니다.)
정확하게 이해한건지 모르겠지만, 결국 아래와 같은 아키텍처를 구성하고, OAI를 사용한 S3버킷 권한 구성을 통해 Client User들의 S3 URL 직접 접속은 차단시키는게 목적인 것 같습니다.
[Client User] → [CloudFront] → [WAF] → [OAI] → [S3]
(6월18일 기출)
바로 위 링크타고 가셔서 하단 광고 하나 시청 후 댓글 주시고 AWS SAA 최신 기출 문제풀이#2 함께 해요.
관련글
'Cloud > AWS SAA 모의시험' 카테고리의 다른 글
AWS SAA 최신 기출 문제풀이 #3 (3) | 2022.07.30 |
---|---|
AWS SAA 최신 기출 문제풀이 #2 (4) | 2022.07.30 |
AWS SAA 최신 기출 문제풀이 Sample (18) | 2022.07.29 |
AWS SAA 모의 시험 #2 (12) | 2022.07.27 |
AWS SAA 모의 시험 #1 (39) | 2022.07.19 |