요즘 회사에서 msp 전문교육 응시 자격으로 AWS SAA 자격증 취득을 독려하다보니 정말 많은 사우들이 시험을 보고 합격을 하고 있습니다. 합격 후 기출문제 공유를 쭉하던 것이 어느정도 데이터로 쌓여서 최근 자주 출제되는 문제들을 추려서 문제풀이 까지 작성해보았습니다. 이번 글에서는 여러분의 피드백을 듣고자 일단 샘플 10문항만 작성하였습니다. 많은 피드백 바랍니다.

 

No1.

A business utilized an AWS Direct Connect connection to transfer one petabyte of data from a colocation facility to an Amazon S3 bucket in the us-east-1 Region. The business now wishes to replicate the data in another S3 bucket located in the us-west-2 Region. Which solution will satisfy this criterion?

A. Use an AWS Snowball Edge Storage Optimized device to copy the data from the colocation facility to us-west-2.

B. Use the S3 console to copy the data from the source S3 bucket to the target S3 bucket.

C. Use S3 Transfer Acceleration and the S3 copy-object command to copy the data from the source S3 bucket to the target S3 bucket.

D. Add an S3 Cross-Region Replication configuration to copy the data from the source S3 bucket to the target S3 bucket.

 

한 기업은 AWS Direct Connect 연결을 활용하여 코로케이션 시설에서 us-east-1 리전의 Amazon S3 버킷으로 1페타바이트의 데이터를 전송했습니다. 이제 비즈니스는 us-west-2 리전에 있는 다른 S3 버킷에 데이터를 복제하려고 합니다. 어떤 솔루션이 이 기준을 만족할까요?

A. AWS Snowball Edge Storage Optimized 디바이스를 사용하여 코로케이션 시설에서 us-west-2로 데이터를 복사합니다.

B. S3 콘솔을 사용하여 소스 S3 버킷에서 대상 S3 버킷으로 데이터를 복사합니다.

C. S3 Transfer Acceleration 및 S3 copy-object 명령을 사용하여 원본 S3 버킷에서 대상 S3 버킷으로 데이터를 복사합니다.

D. S3 교차 리전 복제 구성을 추가하여 소스 S3 버킷에서 대상 S3 버킷으로 데이터를 복사합니다.

 

D

AWS Direct Connect 연결을 활용하여 코로케이션 시설에서 us-east-1의 S3 버킷으로 1페타바이트의 데이터를 전송하는게 있는데 이제는 us-east-1에 있는 S3로도 복제하려한다. S3 Cross-Region Replication configuration 추가하여 데이터를 복사합니다.

(7월25일 기출)

 

No2.

A business created a stateless two-tier application using Amazon EC2 in a single Availability Zone and an Amazon RDS Multi-AZ database instance. The new administration of the organization wants to guarantee that the application is highly accessible. What actions should a solutions architect do in order to satisfy this requirement?

A. Configure the application to use Multi-AZ EC2 Auto Scaling and create an Application Load Balancer.

B. Configure the application to take snapshots of the EC2 instances and send them to a different AWS Region.

C. Configure the application to use Amazon Route 53 latency-based routing to feed requests to the application.

D. Configure Amazon Route 53 rules to handle incoming requests and create a Multi-AZ Application Load Balancer.

 

기업은 단일 가용 영역 Amazon EC2를 사용하고 Amazon RDS 다중 AZ 데이터베이스 인스턴스에서 상태 비저장 2계층 애플리케이션을 운영합니다. 조직의 새 관리자는 응용 프로그램의 액세스 가용성을 높이려고 합니다. 이 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까?

A. 다중 AZ EC2 Auto Scaling을 사용하도록 애플리케이션을 구성하고 Application Load Balancer를 생성합니다.

B. EC2 인스턴스의 스냅샷을 생성하여 다른 AWS 리전으로 보내도록 애플리케이션을 구성합니다.

C. Amazon Route 53 지연 시간 기반 라우팅을 사용하여 애플리케이션에 요청을 제공하도록 애플리케이션을 구성합니다.

D. 수신 요청을 처리하고 다중 AZ 애플리케이션 로드 밸런서를 생성하도록 Amazon Route 53 규칙을 구성합니다.

 

A

2 티어 어플리케이션이있다. 이건 single AZ EC2 & Multi-AZ RDS 새 관리자가 highly accessible 를 원한다. Multi-AZ EC2 Auto Scaling을 사용하도록 애플리케이션을 구성하고 Application Load Balancer를 생성합니다.

(7월1일, 7월25일 기출)

 

No3.

A business is building an ecommerce solution that will have a load-balanced front end, a container-based application, and a relational database. A solutions architect must design a highly accessible system that requires little human intervention. Which solutions satisfy these criteria? (Select two.)

A. Create an Amazon RDS DB instance in Multi-AZ mode.

B. Create an Amazon RDS DB instance and one or more replicas in another Availability Zone.

C. Create an Amazon EC2 instance-based Docker cluster to handle the dynamic application load.

D. Create an Amazon Elastic Container Service (Amazon ECS) cluster with a Fargate launch type to handle the dynamic application load.

E. Create an Amazon Elastic Container Service (Amazon ECS) cluster with an Amazon EC2 launch type to handle the dynamic application load.

 

한 비즈니스에서 로드 밸런싱된 프런트 엔드, 컨테이너 기반 응용 프로그램 및 관계형 데이터베이스가 있는 전자 상거래 솔루션을 구축하고 있습니다. 솔루션 설계자는 사람의 개입이 거의 필요하지 않은 접근성이 높은 시스템을 설계해야 합니다. 어떤 솔루션이 이러한 기준을 충족합니까? (2개를 선택하세요.)

A. 다중 AZ 모드에서 Amazon RDS DB 인스턴스를 생성합니다.

B. 다른 가용 영역에 Amazon RDS DB 인스턴스와 하나 이상의 읽기 복제본을 생성합니다.

C. 동적 애플리케이션 로드를 처리할 Amazon EC2 인스턴스 기반 Docker 클러스터를 생성합니다.

D. Fargate 시작 유형으로 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성하여 동적 애플리케이션 로드를 처리합니다.

E. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 시작 유형으로 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.

 

A,D

이커머스 솔루션을 구축중이다. 이건 컨테이너 기반의 load-balanced front end가 있고 relational database가 있다. highly accessible하게 설계하고싶다. 
- RDS를 Multi-AZ mode 만든다.
- Fargate 런치 타입으로 Amazon ECS 클러스터를 생성하여 동적 애플리케이션 로드를 처리합니다.

(7월25일, 7월26일 기출)

 

No4.

A solutions architect is developing a solution that will need frequent modifications to a website hosted on Amazon S3 with versioning enabled. Due to compliance requirements, older versions of the objects will be seldom accessed and will need to be removed after two years. What should the solutions architect propose as the CHEAPEST way to achieve these requirements?

A. Use S3 batch operations to replace object tags. Expire the objects based on the modified tags.

B. Configure an S3 Lifecycle policy to transition older versions of objects to S3 Glacier. Expire the objects after 2 years.

C. Enable S3 Event Notifications on the bucket that sends older objects to the Amazon Simple Queue Service (Amazon SQS) queue for further processing.

D. Replicate older object versions to a new bucket. Use an S3 Lifecycle policy to expire the objects in the new bucket after 2 years.

 

솔루션 설계자는 버전 관리가 활성화된 Amazon S3에서 호스팅되는 웹 사이트를 자주 수정해야 하는 솔루션을 개발하고 있습니다. 규정 준수 요구 사항으로 인해 이전 버전의 개체는 거의 액세스되지 않으며 2년 후에는 제거해야 합니다. 솔루션 설계자는 이러한 요구 사항을 달성하기 위한 가장 저렴한 방법으로 무엇을 제안해야 합니까?

A. S3 일괄 작업을 사용하여 객체 태그를 교체합니다. 수정된 태그를 기반으로 개체를 만료합니다.

B. 이전 버전의 객체를 S3 Glacier로 전환하도록 S3 수명 주기 정책을 구성합니다. 2년 후에 객체를 만료합니다.

C. 추가 처리를 위해 이전 객체를 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내는 버킷에서 S3 이벤트 알림을 활성화합니다.

D. 이전 객체 버전을 새 버킷에 복제합니다. S3 수명 주기 정책을 사용하여 2년 후에 새 버킷의 객체를 만료시킵니다.

 

B

자주 수정되는 Amazon S3에서 호스팅 되는 web사이트를 개발중 (버저닝 on) Old 버전은 드물게 accessed되며 2년뒤에 지움 가장싸게 하는방법?
S3라이프 사이클을 설정. 이전버전은 S3 Glacier로 가도록하고 2년후에 만료시킵니다.

(7월1일, 7월10일, 7월25일, 7월26일 기출)
다른 내용 및 보기는 동일한데 "이전 버전의 개체는 자주 액세스되며 2년후에 제거해야 합니다." 로 변형되어 D 번을 선택했습니다 → 이렇게 변형되어 출제

 

No5.

A three-tier web application is used to handle client orders. The web tier is made up of Amazon EC2 instances behind an Application Load Balancer, a middle tier made up of three EC2 instances that are isolated from the web layer through Amazon SQS, and an Amazon DynamoDB backend. During busy periods, consumers who place purchases through the site must wait much longer than usual for confirmations owing to prolonged processing delays. A solutions architect's objective should be to minimize these processing times. Which course of action will be the MOST EFFECTIVE in achieving this?

A. Replace the SQS queue with Amazon Kinesis Data Firehose.

B. Use Amazon ElastiCache for Redis in front of the DynamoDB backend tier.

C. Add an Amazon CloudFront distribution to cache the responses for the web tier.

D. Use Amazon EC2 Auto Scaling to scale out the middle tier instances based on the SQS queue depth.

 

3계층 웹 애플리케이션은 클라이언트 주문을 처리하는 데 사용됩니다. 웹 계층은 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스, Amazon SQS를 통해 웹 계층에서 격리된 3개의 EC2 인스턴스로 구성된 중간 계층, Amazon DynamoDB 백엔드로 구성됩니다. 성수기에는 사이트를 통해 구매하는 소비자가 처리 지연 시간이 길어져 평소보다 훨씬 더 오래 기다려야 합니다. 솔루션 설계자의 목표는 이러한 처리 시간을 최소화하는 것입니다. 이를 달성하는 데 가장 효과적인 조치는 무엇입니까?

 

A. SQS 대기열을 Amazon Kinesis Data Firehose로 교체합니다.

B. DynamoDB 백엔드 계층 앞에서 Redis용 Amazon ElastiCache를 사용합니다.

C. Amazon CloudFront 배포를 추가하여 웹 계층에 대한 응답을 캐시합니다.

D. Amazon EC2 Auto Scaling을 사용하여 SQS 대기열 깊이를 기반으로 중간 계층 인스턴스를 확장합니다.

 

D

3티어 Web APP
- Web 티어 : EC2 + ALB
- 미들 티어 : EC2 3대, Amazon SQS를 통해 Web 티어에서 격리됩니다.
- 백엔드 : DynamoDB 바쁠때, 사이트를 통해 구매하는 소비자가 처리 지연 시간이 길어져 오래 기다려야합니다.

MOST EFFECTIVE(가장효과적으로)하게 해결하는 방법?
Auto Scaling을 사용하여 SQS 대기열 depth를 기반으로 미들티어 인스턴스를 스케일 아웃

(6월 25일 기출)
반응형

 

No6.

A solutions architect is in the process of implementing a distributed database across many Amazon EC2 instances. The database replicates all data across numerous instances to ensure that it can survive the loss of single instance. The database needs block storage that is low in latency and high in throughput in order to accommodate several million transactions per second per server. Which storage option should the architect of solutions use?

A. EBS Amazon Elastic Block Store (Amazon EBS)

B. Amazon EC2 instance store

C. Amazon Elastic File System (Amazon EFS)

D. Amazon S3

 

솔루션 설계자는 많은 Amazon EC2 인스턴스에 분산 데이터베이스를 구현하는 과정에 있습니다. 데이터베이스는 단일 인스턴스의 손실을 견딜 수 있도록 여러 인스턴스에 걸쳐 모든 데이터를 복제합니다. 데이터베이스는 서버당 초당 수백만 건의 트랜잭션을 수용하기 위해 대기 시간이 짧고 처리량이 높은 블록 스토리지가 필요합니다. 솔루션 설계자는 어떤 스토리지 옵션을 사용해야 합니까?

 

A. EBS Amazon Elastic Block Store(Amazon EBS)

B. Amazon EC2 인스턴스 스토어

C. Amazon Elastic File System(Amazon EFS)

D. 아마존 S3

 

 

B

여러 EC2 인스턴스에 분산 데이터베이스를 구현하는 과정에 있습니다. DB는 단일 인스턴스의 손실을 견딜 수 있도록 수많은 인스턴스에 걸쳐 모든 데이터를 복제합니다. DB는 서버당 초당 수백만 건의 트랜잭션을 수용하기 위해 대기 시간이 짧고 처리량이 높은 블록 스토리지가 필요합니다.

(6월 16일 기출)

 

No7.

A business hosts a web application on Amazon Web Services (AWS) utilizing a single Amazon EC2 instance that saves user-uploaded documents in an Amazon Elastic Block Store (Amazon EBS) volume. To improve scalability and availability, the organization replicated the architecture and deployed a second EC2 instance and EBS volume in a different Availability Zone, both of which were placed behind an Application Load Balancer. After this update was made, users claimed that each time they refreshed the page, they could view a portion of their papers but never all of them. What should a solutions architect suggest to guarantee that users have access to all of their documents simultaneously?

A. Copy the data so both EBS volumes contain all the documents.

B. Configure the Application Load Balancer to direct a user to the server with the documents.

C. Copy the data from both EBS volumes to Amazon Elastic File System (Amazon EFS). Modify the application to save new documents to Amazon Elastic File System (Amazon EFS).

D. Configure the Application Load Balancer to send the request to both servers. Return each document from the correct server.

 

기업은 Amazon Elastic Block Store(Amazon EBS) 볼륨에 사용자 업로드 문서를 저장하는 단일 Amazon EC2 인스턴스를 사용하여 Amazon Web Services(AWS)에서 웹 애플리케이션을 호스팅합니다. 확장성과 가용성을 개선하기 위해 조직은 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 배포했습니다. 이 두 가지 모두 Application Load Balancer 뒤에 배치되었습니다. 이 업데이트가 이루어진 후 사용자는 페이지를 새로 고칠 때마다 논문의 일부를 볼 수 있지만 전체를 볼 수는 없다고 주장했습니다. 솔루션 설계자는 사용자가 모든 문서에 동시에 액세스할 수 있도록 보장하기 위해 무엇을 제안해야 합니까?

A. 두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다.

B. 문서가 있는 서버로 사용자를 안내하도록 Application Load Balancer를 구성합니다.

C. 두 EBS 볼륨의 데이터를 Amazon Elastic File System(Amazon EFS)으로 복사합니다. 새 문서를 Amazon Elastic File System(Amazon EFS)에 저장하도록 애플리케이션을 수정합니다.

D. 두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환하십시오.

 

C

EBS와 EFS의 가장 큰 차이점 중 하나는 EBS는 단일 AZ안에서만 접근이 가능한 저장소인 반면, EFS는 다중 AZ안에서도 접근이 가능한 저장소라는 점입니다. 위 문제에서는 초기 단일 AZ에서 운영하던 EC2 및 EBS를 복제한뒤 AZ를 2중화하여 멀티 EC2 및 EBS 시스템으로 구성하였지만, 각 AZ 내에서 공유되지 않는 EBS 저장소를 별도로 운영하였기때문에 고객들에게 일관성있는 데이터를 제공할 수 없었던 것으로 보입니다. 이는 각 AZ의 EC2 인스턴스가 동일한 저장소를 공유하도록 함으로써 해결할 수 있을 것 같습니다. 초기 EBS에 저장되어있던 데이터들을 일관성있게 보정하여 EFS로 일회성 마이그레이션을 수행한뒤 EC2 어플리케이션 서버 인스턴스가 EBS가 아닌 EFS에 데이터를 저장하도록 변경하는 것이 바람직해보입니다.

(7월 1일 기출)

 

No8.

A business may have many AWS accounts for different departments. One of the departments would want to share an Amazon S3 bucket with the rest of the organization. Which of the following solutions requires the LEAST amount of effort?

A. Enable cross-account S3 replication for the bucket.

B. Create a pre-signed URL for the bucket and share it with other departments.

C. Set the S3 bucket policy to allow cross-account access to other departments.

D. Create IAM users for each of the departments and configure a read-only IAM policy.

 

비즈니스에는 여러 부서에 대해 여러 AWS 계정이 있을 수 있습니다. 부서 중 하나는 Amazon S3 버킷을 나머지 조직과 공유하려고 합니다. 다음 솔루션 중 가장 적은 노력이 필요한 솔루션은 무엇입니까?

A. 버킷에 대해 교차 계정 S3 복제를 활성화합니다.

B. 버킷에 대해 미리 서명된 URL을 생성하고 다른 부서와 공유합니다.

C. 다른 부서에 대한 교차 계정 액세스를 허용하도록 S3 버킷 정책을 설정합니다.

D. 각 부서에 대한 IAM 사용자를 생성하고 읽기 전용 IAM 정책을 구성합니다.

 

C

A : 버킷을 복제하려고 하는 것이 아니라 공유하려고 하는 것이다. 너무 부정확하다.
B : 작동할 수 있지만, 다른 모든 부서와 공유를 조정하고 있습니다. 2개 부서일 수도 있고 100개 부서일 수도 있는데 모르시겠죠.
C : 공유하려는 리소스에 대한 정책을 수정하기 때문에 가장 쉽습니다. 최소한의 노력으로 수정해야 하는 단일 작업입니다. 
D : B가 할 수 있는 대로 일을 할 수 있지만, 부서의 양에 따라 엄청난 노력을 하고 있습니다.

(7월 10일, 7월 11일, 7월 21일, 7월 25일, 7월 26일 기출)

 

No9.

A business is in the process of deploying a data lake on Amazon Web Services (AWS). An architect of solutions must describe the encryption approach for data in transit and at rest. Amazon S3/ The following is stated in the company's security policy: - Keys must be rotated every 90 days. - Strict separation of duties between key users and key administrators must be implemented. - Auditing key usage must be possible. What solutions architect recommendations should be made?

A. Server-side encryption with AWS KMS managed keys (SSE-KMS) with customer managed customer master keys (CMKs)

B. Server-side encryption with AWS KMS managed keys (SSE-KMS) with AWS managed customer master keys (CMKs)

C. Server-side encryption with Amazon S3 managed keys (SSE-S3) with customer managed customer master keys (CMKs)

D. Server-side encryption with Amazon S3 managed keys (SSE-S3) with AWS managed customer master keys (CMKs)

 

Amazon Web Services(AWS)에 데이터 레이크를 배포하는 과정에 있습니다. 솔루션 설계자는 전송 및 저장 데이터에 대한 암호화 접근 방식을 설명해야 합니다. Amazon S3/ 회사의 보안정책에 다음과 같이 명시되어 있습니다. - 키는 90일마다 교체해야 합니다. - 키 사용자와 키 관리자 사이의 엄격한 권한 분리가 구현되어야 합니다. - 키 사용량 모니터링이 가능해야 합니다. 솔루션 아키텍트가 어떤 액션을 권장해야 합니까?

A. 고객 관리형 고객 마스터 키(CMK), AWS KMS 관리형 키(SSE-KMS)를 사용한 서버 측 암호화

B. AWS 관리형 고객 마스터 키(CMK), AWS KMS 관리형 키(SSE-KMS)를 사용한 서버 측 암호화

C. 고객 관리형 고객 마스터 키(CMK), Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화

D. AWS 관리형 고객 마스터 키(CMK), Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화

 

A

서버측 암호화
1. Amazon S3관리형 키(SSE-S3)
2. AWS KMS 관리형 키(SSE-KMS) (O) A, B
  - 키 사용 주체 및 사용 시기 감사 추적
  - 고객 관리형 마스터키 사용 가능
3. 고객 제공 키(SSE-C)

클라이언트측 암호화
1. AWS 관리형 고객 마스터키(CSE-KMS)
  - AWS가 키관리하고 1년마다 키 교체(2022년 5월부터 기존 3년 -> 1년으로 변경)
2. 고객 관리형 마스터키(CSE-C) (O) A, C
  - 고객이 키관리하고 자율주기로 키 교체

(7월 10일, 7월 22일 기출)

 

No10.

 

A solutions architect is tasked with the responsibility of developing a robust solution for Windows users' home directories. The solution must have fault tolerance, file-level backup and recovery, and access control, all of which must be based on the Active Directory of the business. Which storage option satisfies these criteria?

A. Configure Amazon S3 to store the users' home directories. Join Amazon S3 to Active Directory.

B. Configure a Multi-AZ file system with Amazon FSx for Windows File Server. Join Amazon FSx to Active Directory.

C. Configure Amazon Elastic File System (Amazon EFS) for the users' home directories. Configure AWS Single Sign-On with Active Directory.

D. Configure Amazon Elastic Block Store (Amazon EBS) to store the users' home directories. Configure AWS Single Sign-On with Active Directory.

 

솔루션 설계자는 Windows 사용자의 홈 디렉토리를 위한 강력한 솔루션을 개발하는 책임을 맡습니다. 솔루션에는 내결함성, 파일 수준 백업 및 복구, 액세스 제어가 있어야 하며 이 모든 것은 비즈니스의 Active Directory를 기반으로 해야 합니다. 이 기준을 충족하는 스토리지 옵션은 무엇입니까?

A. 사용자의 홈 디렉터리를 저장하도록 Amazon S3를 구성합니다. Amazon S3를 Active Directory에 가입합니다.

B. Windows 파일 서버용 Amazon FSx를 사용하여 다중 AZ 파일 시스템을 구성합니다. Amazon FSx를 Active Directory에 가입합니다.

C. 사용자의 홈 디렉터리에 대해 Amazon Elastic File System(Amazon EFS)을 구성합니다. Active Directory로 AWS Single Sign-On을 구성합니다.

D. 사용자의 홈 디렉터리를 저장하도록 Amazon Elastic Block Store(Amazon EBS)를 구성합니다. Active Directory로 AWS Single Sign-On을 구성합니다.

 

B

Amazon FSx for Windows File Server - Windows Server에 구축되는 완전관리형 파일 스토리지

(7월 21일, 7월 25일, 7월 26일 기출)

 

상위 0.1% 학생들의 학습 비밀 수박씨닷컴

 수배씨닷컴 수박씨닷컴은 비상교육이 만든 중등 인터넷 강의 교육 사이트이다. 주로 중학교 내신강좌, 영어, 수학 심화 강좌, 고등 대비 강좌, 미래교육 동영상강의를 제공하고 있다. 또한 학

papasjh.tistory.com

바로 위 링크타고 가셔서 하단 광고 하나 시청 후 댓글 주시고 AWS SAA 최신 기출 문제풀이#1 함께 해요.

 
 

 

 

728x90
반응형

'Cloud > AWS SAA 모의시험' 카테고리의 다른 글

AWS SAA 최신 기출 문제풀이 #3  (3) 2022.07.30
AWS SAA 최신 기출 문제풀이 #2  (4) 2022.07.30
AWS SAA 최신 기출 문제풀이 #1  (12) 2022.07.30
AWS SAA 모의 시험 #2  (12) 2022.07.27
AWS SAA 모의 시험 #1  (39) 2022.07.19
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기