No61.

Amazon S3 is being used by a solutions architect to develop the storage architecture for a new digital media application. The media files must be robust in the event of an Availability Zone failure. Certain files are routinely visited, while others are viewed infrequently and in an unexpected fashion. The architect of the solution must keep the expenses of storing and retrieving media files to a minimum. Which storage choice satisfies these criteria?

A. S3 Standard

B. S3 Intelligent-Tiering

C. S3 Standard-Infrequent Access (S3 Standard-IA)

D. S3 One Zone-Infrequent Access (S3 One Zone-IA)

 

Amazon S3는 솔루션 설계자가 새로운 디지털 미디어 애플리케이션을 위한 스토리지 아키텍처를 개발하는 데 사용하고 있습니다. 미디어 파일은 가용 영역에 장애가 발생한 경우에도 견고해야 합니다. 특정 파일은 일상적으로 방문하는 반면 다른 파일은 드물게 예기치 않은 방식으로 봅니다. 솔루션 설계자는 미디어 파일을 저장하고 검색하는 비용을 최소화해야 합니다. 이러한 기준을 충족하는 스토리지 선택은 무엇입니까?

A. S3 Standard

B. S3 Intelligent-Tiering

C. S3 Standard-Infrequent Access (S3 Standard-IA)

D. S3 One Zone-Infrequent Access (S3 One Zone-IA)

 

B

S3 Intelligent-Tiering은 객체 기준으로 액세스 요청의 빈도수에 따라 알아서 객체의 티어를 S3 Standard, S3 Standard-IA 분류해주는 기능이 있습니다.

(7월1일,  7월23일 기출)

 

No62.

A corporation needs to create a relational database with a 1 second Recovery Point Objective (RPO) and a 1 minute Recovery Time Objective (RTO) for multi-region disaster recovery. Which AWS solution is capable of doing this?

A. Amazon Aurora Global Database

B. Amazon DynamoDB global tables

C. Amazon RDS for MySQL with Multi-AZ enabled

D. Amazon RDS for MySQL with a cross-Region snapshot copy

 

기업은 다중 지역 재해 복구를 위해 1초 RPO(복구 시점 목표) 및 1분 RTO(복구 시간 목표)로 관계형 데이터베이스를 만들어야 합니다. 어떤 AWS 솔루션이 이 작업을 수행할 수 있습니까?

A. Amazon Aurora 글로벌 데이터베이스

B. Amazon DynamoDB 전역 테이블

C. 다중 AZ가 활성화된 MySQL용 Amazon RDS

D. 교차 리전 스냅샷 사본이 있는 MySQL용 Amazon RDS

 

A

Amazon Aurora Global Database는 전 세계적으로 분산된 애플리케이션을 위해 설계되었으며, 단일 Amazon Aurora 데이터베이스를 여러 AWS 리전으로 확장해 줍니다. 데이터베이스 성능에 어떠한 영향도 주지 않고 데이터를 복제하고, 각 리전에서 낮은 지연 시간으로 빠른 로컬 읽기를 지원하며, 리전 규모의 가동 중단 발생 시 재해 복구를 제공합니다.

(5월31일, 7월25일 기출)

 

No63.

A business's application is operating on Amazon EC2 instances contained inside a VPC. One of the apps must make a request to the Amazon S3 API in order to store and retrieve items. The company's security regulations prohibit programs from sending any internet-bound traffic. Which course of action will satisfy these needs while still maintaining security?

A. Configure an S3 interface endpoint.

B. Configure an S3 gateway endpoint.

C. Create an S3 bucket in a private subnet.

D. Create an S3 bucket in the same Region as the EC2 instance.

 

비즈니스 애플리케이션이 VPC 내부에 포함된 Amazon EC2 인스턴스에서 작동하고 있습니다. 항목을 저장하고 검색하려면 앱 중 하나가 Amazon S3 API에 요청해야 합니다. 회사의 보안 규정은 프로그램이 인터넷에 트래픽을 보내는 것을 금지합니다. 보안을 유지하면서 이러한 요구를 충족할 조치는 무엇입니까?

A. S3 인터페이스 끝점을 구성합니다.

B. S3 게이트웨이 엔드포인트를 구성합니다.

C. 프라이빗 서브넷에 S3 버킷을 생성합니다.

D. EC2 인스턴스와 동일한 리전에 S3 버킷을 생성합니다.

 

B

[VPC End Point 에 대한 이해]
Gateway End Point : VPC용 Internet Gateway 또는 NAT 디바이스없이 S3 및 Danamo DB에 대한 안정적인 연결을 제공합니다. AWS Private Link를 활성화 하지 않습니다.

Interface End Point : VPC에서 Route Table에 지정하는 Gateway. Private IP주소를 통하여 On premise VPC, VPC Peering 또는 Aws Transit Gateway로 다른 region의 VPC에서 Access가 가능합니다.

문제에서 원하는 보안유지를 위한 서비스로는 Gateway endpoint가 적합합니다.

(5월31일 기출)

 

No64.

A solutions architect is developing a two-step order process application. The first step is synchronous and must return with minimal delay to the user. Because the second stage is more time consuming, it will be done as a distinct component. Orders must be processed precisely once and in their original sequence of receipt. How are these components to be integrated by the solutions architect?

A. Use Amazon SQS FIFO queues.

B. Use an AWS Lambda function along with Amazon SQS standard queues.

C. Create an SNS topic and subscribe an Amazon SQS FIFO queue to that topic.

D. Create an SNS topic and subscribe an Amazon SQS Standard queue to that topic.

 

솔루션 설계자는 2단계 주문 프로세스 애플리케이션을 개발 중입니다. 첫 번째 단계는 동기식이며 사용자에게 최소한의 지연으로 반환해야 합니다. 두 번째 단계는 시간이 더 오래 걸리므로 별개의 구성 요소로 수행됩니다. 주문은 정확히 한 번만 원래 수령 순서대로 처리되어야 합니다. 솔루션 설계자는 이러한 구성 요소를 어떻게 통합합니까?

A. Amazon SQS FIFO 대기열을 사용합니다.

B. Amazon SQS 표준 대기열과 함께 AWS Lambda 함수를 사용합니다.

C. SNS 주제를 생성하고 해당 주제에 대한 Amazon SQS FIFO 대기열을 구독합니다.

D. SNS 주제를 생성하고 해당 주제에 대한 Amazon SQS 표준 대기열을 구독합니다.

 

C

SNS가 SQS보다 "synchronous, minimal delay" 가 뛰어나서 늘 등장하는 것은 아닙니다. 그것이 목적이라면 SNS나 SQS나 똑같습니다.
SNS는 SQS가 못하는 걸 합니다. 메세지를 필터링,해석 해서 여러 subscriber(메세지 받을 놈)에게 보낼 수 있습니다. 즉, SQS는 application type별로 여러개의 queue를 만들고 SNS는 메세지를 해석해서 알맞는 queue에 메세지를 push 해줍니다.
그럼 SNS에게 직접 Application에 보내면 더 좋을 것 같지만 SNS는 real-time 을 위해 publish subscriber 방식을 따릅니다. Application이 listener열어서 늘 message 받을 준비하고 있어야합니다. 놓치면 data lose 발생할 수 있습니다.
SQS를 produce consume 방식입니다. 메세지를 queue에 꽤 오래 보관하고 consumer가 알아서 받아가는 방식입니다.

그래서 이런 류의 문제는 항상 AWS Service -> SNS -> SQS -> application 이런 구조인 것입니다.

(5월31일, 6월16일 기출)

 

No65.

A business is transferring a set of Linux-based web servers to AWS. For certain content, the web servers must access files stored in a shared file storage. To fulfill the migration deadline, only minor adjustments are necessary. What actions should a solutions architect take to ensure that these criteria are met?

A. Create an Amazon S3 Standard bucket with access to the web server.

B. Configure an Amazon CloudFront distribution with an Amazon S3 bucket as the origin.

C. Create an Amazon Elastic File System (Amazon EFS) volume and mount it on all web servers.

D. Configure Amazon Elastic Block Store (Amazon EBS) Provisioned IOPS SSD (io1) volumes and mount them on all web servers.

 

한 기업이 Linux 기반 웹 서버 세트를 AWS로 이전하고 있습니다. 특정 콘텐츠의 경우 웹 서버는 공유 파일 저장소에 저장된 파일에 액세스해야 합니다. 마이그레이션 기한을 맞추기 위해 약간의 조정만 필요합니다. 이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?

A. 웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 생성합니다.

B. Amazon S3 버킷을 오리진으로 사용하여 Amazon CloudFront 배포를 구성합니다.

C. Amazon Elastic File System(Amazon EFS) 볼륨을 생성하고 모든 웹 서버에 마운트합니다.

D. Amazon Elastic Block Store(Amazon EBS) 프로비저닝된 IOPS SSD(io1) 볼륨을 구성하고 모든 웹 서버에 탑재합니다.

 

C

Amazon EFS : AWS 컴퓨팅 시스템을 위한 공유 파일 시스템을 간편하고 빠르게 생성하고 구성한다. 프로비저닝, 배포, 패치 적용 또는 유지 관리가 필요하지 않습니다.

(6월25일 기출)
반응형

 

No66.

Amazon EC2 instances are used to execute an application. The application's sensitive data is housed in an Amazon S3 bucket. The bucket must be shielded from internet access while yet allowing access to it for services inside the VPC. Which activities should solutions archived take in order to do this? (Select two.)

A. Create a VPC endpoint for Amazon S3.

B. Enable server access logging on the bucket.

C. Apply a bucket policy to restrict access to the S3 endpoint.

D. Add an S3 ACL to the bucket that has sensitive information.

E. Restrict users using the IAM policy to use the specific bucket.

 

Amazon EC2 인스턴스는 애플리케이션을 실행하는 데 사용됩니다. 애플리케이션의 민감한 데이터는 Amazon S3 버킷에 보관됩니다. 버킷은 인터넷 액세스로부터 보호되는 동시에 VPC 내부 서비스에 대한 액세스를 허용해야 합니다. 이를 위해 아카이브 솔루션은 어떤 활동을 수행해야 합니까? (2개를 선택하세요.)

A. Amazon S3용 VPC 엔드포인트를 생성합니다.

B. 버킷에서 서버 액세스 로깅을 활성화합니다.

C. 버킷 정책을 적용하여 S3 엔드포인트에 대한 액세스를 제한합니다.

D. 민감한 정보가 있는 버킷에 S3 ACL을 추가합니다.

E. IAM 정책을 사용하는 사용자가 특정 버킷을 사용하도록 제한합니다.

 

A,C

VPC 내부에서만 S3 접근을 허용하도록 하기 위해 VPC endpoint를 만들고, S3에 대한 임의의 접근을 제한하기 위해 S3 버킷에 자체적으로 resource based policy를 적용합니다.

(6월25일, 7월1일, 7월23일 기출)

 

No67.

Each day, a corporation gets ten terabytes of instrumentation data from many machines situated in a single plant. The data is saved in JSON files on a storage area network (SAN) inside the factory's on-premises data center. The organization want to upload this data to Amazon S3 so that it may be accessible by a number of other systems that do crucial near-real-time analytics. Because the data is deemed sensitive, a secure transmission is critical. Which option provides the MOST SECURE method of data transfer?

A. AWS DataSync over public internet

B. AWS DataSync over AWS Direct Connect

C. AWS Database Migration Service (AWS DMS) over public internet

D. AWS Database Migration Service (AWS DMS) over AWS Direct Connect

 

매일 기업은 단일 공장에 있는 많은 기계에서 10테라바이트의 계측 데이터를 얻습니다. 데이터는 공장 온프레미스 데이터 센터 내부의 SAN(Storage Area Network)에서 JSON 파일로 저장됩니다. 조직은 이 데이터를 Amazon S3에 업로드하여 중요한 거의 실시간 분석을 수행하는 다른 여러 시스템에서 액세스할 수 있도록 하려고 합니다. 데이터는 민감한 것으로 간주되기 때문에 안전한 전송이 중요합니다. 가장 안전한 데이터 전송 방법을 제공하는 옵션은 무엇입니까?

A. 퍼블릭 인터넷을 통한 AWS DataSync

B. AWS Direct Connect를 통한 AWS DataSync

C. 퍼블릭 인터넷을 통한 AWS Database Migration Service(AWS DMS)

D. AWS Direct Connect를 통한 AWS Database Migration Service(AWS DMS)

 

B

MOST SECURE → Not via Internet but Direct Connect
Files → Data Sync
Database → DMS

(7월1일, 7월15일, 7월23일, 7월25일 기출)

 

No68.

A business wishes to run its mission-critical apps in containers in order to fulfill scalability and availability requirements. The corporation would rather concentrate on key application maintenance. The firm does not want to be responsible for provisioning and maintaining the containerized workload's underlying infrastructure. What actions should a solutions architect take to ensure that these criteria are met?

A. Use Amazon EC2 instances, and install Docker on the instances.

B. Use Amazon Elastic Container Service (Amazon ECS) on Amazon EC2 worker nodes.

C. Use Amazon Elastic Container Service (Amazon ECS) on AWS Fargate.

D. Use Amazon EC2 instances from an Amazon Elastic Container Service (Amazon ECS)-optimized Amazon Machine Image (AMI).

 

기업은 확장성 및 가용성 요구 사항을 충족하기 위해 컨테이너에서 미션 크리티컬 앱을 실행하려고 합니다. 회사는 오히려 주요 애플리케이션 유지 관리에 집중할 것입니다. 회사는 컨테이너화된 워크로드의 기본 인프라 프로비저닝 및 유지 관리에 대한 책임을 원하지 않습니다. 이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?

A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치합니다.

B. Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.

C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.

D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon 머신 이미지(AMI)의 Amazon EC2 인스턴스를 사용합니다.

 

C

Amazon Elastic Container Service(Amazon ECS)를 사용하면 AWS에 컨테이너식 워크로드를 손쉽게 배포할 수 있습니다. Amazon ECS는 단일 Docker 컨테이너에서 전체 엔터프라이즈 애플리케이션 포트폴리오를 관리하는 규모로 확장할 수 있는 강력한 단순성을 제공합니다. 여러 가용 영역, 클라우드 및 온프레미스에서 제어 플레인 또는 노드 관리의 복잡성 없이 컨테이너 워크로드를 실행 및 확장할 수 있습니다.

AWS Fargate는 서버를 관리하지 않고도 애플리케이션 구축에 초점을 맞출 수 있도록 지원하는 종량제 서버리스 컴퓨팅 엔진입니다. AWS Fargate는 Amazon Elastic Container Service(ECS) 및 Amazon Elastic Kubernetes Service(EKS) 모두와 호환됩니다.

(6월25일, 7월23일 기출)

 

No69.

Amazon DynamoDB is being used by an entertainment firm to store media metadata. The application requires extensive reading and often encounters delays. The organization lacks the people necessary to manage extra operational expenses and requires an increase in DynamoDB's performance efficiency without changing the application. What solution architecture approach should be recommended to satisfy this requirement?

A. Use Amazon ElastiCache for Redis.

B. Use Amazon DynamoDB Accelerator (DAX).

C. Replicate data by using DynamoDB global tables.

D. Use Amazon ElastiCache for Memcached with Auto Discovery enabled.

 

Amazon DynamoDB는 엔터테인먼트 회사에서 미디어 메타데이터를 저장하는 데 사용하고 있습니다. 응용 프로그램은 광범위한 읽기가 필요하며 종종 지연이 발생합니다. 조직은 추가 운영 비용을 관리하는 데 필요한 인력이 부족하고 애플리케이션을 변경하지 않고 DynamoDB의 성능 효율성을 높여야 합니다. 이 요구 사항을 충족하려면 어떤 솔루션 아키텍처 접근 방식을 권장해야 합니까?

A. Redis용 Amazon ElastiCache를 사용합니다.

B. Amazon DynamoDB 가속기(DAX)를 사용합니다.

C. DynamoDB 전역 테이블을 사용하여 데이터를 복제합니다.

D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용합니다.

 

B

C 가 답이려면 여러 리전에 걸쳐 DynamoDB가 배포 되어져 있어야 합니다.

글로벌 테이블은 글로벌 규모의 Amazon DynamoDB를 기반으로 구축되어 완전관리형, 다중 리전, 다중 활성 데이터베이스를 제공하며, 이 데이터베이스는 대규모로 확장되는 글로벌 애플리케이션에 대해 빠른 로컬 읽기 및 쓰기 성능을 지원합니다. 글로벌 테이블은 선택한 AWS 리전에서 DynamoDB 테이블을 자동으로 복제합니다.

글로벌 테이블을 사용하면 리전 간에 데이터를 복제하고 업데이트 충돌을 해결하는 힘든 작업을 수행할 필요가 없으므로 애플리케이션의 비즈니스 로직에 집중할 수 있습니다. 또한, 글로벌 테이블을 사용하면 전체 리전에서 격리 또는 성능 저하 문제가 있는 경우에도 애플리케이션의 가용성을 높게 유지할 수 있습니다.

(5월31일, 6월16일 기출)

 

No70.

A database is hosted on an Amazon RDS MySQL 5.6 Multi-AZ DB instance that is subjected to high-volume reads. When evaluating read performance from a secondary AWS Region, application developers detect a considerable lag. The developers need a solution that has a read replication latency of less than one second. What recommendations should the solutions architect make?

A. Install MySQL on Amazon EC2 in the secondary Region.

B. Migrate the database to Amazon Aurora with cross-Region replicas.

C. Create another RDS for MySQL read replica in the secondary Region.

D. Implement Amazon ElastiCache to improve database query performance.

C. Store the data in Amazon S3 Glacier. Update the S3 Glacier vault policy to allow access to the application instances.

D. Store the data in an Amazon Elastic Block Store (Amazon EBS) Provisioned IOPS volume shared between the application instances.

 

대용량 읽기의 트래픽이있는 Amazon RDS MySQL 5.6 다중 AZ DB 인스턴스가 있습니다. 보조 AWS 리전에서 읽기 성능을 테스트할 때 애플리케이션 개발자는 상당한 성능저하를 확인했습니다. 개발자는 읽기 복제 대기 시간이 1초 미만인 솔루션이 필요합니다. 솔루션 설계자는 어떤 권장 사항을 제시해야 합니까?

A. 보조 리전의 Amazon EC2에 MySQL을 설치합니다.

B. 교차 리전 복제본(cross-Region replicas)을 사용하여 데이터베이스를 Amazon Aurora로 마이그레이션합니다.

C. 보조 리전에 또 다른 MySQL용 RDS 읽기 전용 복제본(read replica)을 생성합니다.

D. Amazon ElastiCache를 구현하여 데이터베이스 쿼리 성능을 개선합니다.

 

B

Amazon Aurora Global Database를 사용하면 여러 AWS 리전에 걸쳐 있는 단일 Aurora 데이터베이스를 사용하여 전역으로 분산된 애플리케이션을 실행할 수 있습니다. Aurora Global Database는 데이터를 마스터링하는 하나의 기본 AWS 리전 및 최대 5개의 읽기 전용 보조 AWS 리전으로 구성됩니다. 쓰기 연산을 기본 AWS 리전의 기본 DB 클러스터에서 직접 시작합니다. Aurora는 일반적으로 1초 미만의 대기 시간으로 전용 인프라를 사용하여 보조 AWS 리전 에 데이터를 복제합니다.

(6월9일 기출)
반응형

 

No71.

For each of its developer accounts, a corporation has configured AWS CloudTrail logs to transport log files to an Amazon S3 bucket. The organization has established a centralized AWS account for the purpose of facilitating administration and auditing. Internal auditors need access to CloudTrail logs, however access to all developer account users must be limited. The solution should be both secure and efficient. How should a solutions architect address these considerations?

A. Configure an AWS Lambda function in each developer account to copy the log files to the central account. Create an IAM role in the central account for the auditor. Attach an IAM policy providing read-only permissions to the bucket.

B. Configure CloudTrail from each developer account to deliver the log files to an S3 bucket in the central account. Create an IAM user in the central account for the auditor. Attach an IAM policy providing full permissions to the bucket.

C. Configure CloudTrail from each developer account to deliver the log files to an S3 bucket in the central account. Create an IAM role in the central account for the auditor. Attach an IAM policy providing read-only permissions to the bucket.

D. Configure an AWS Lambda function in the central account to copy the log files from the S3 bucket in each developer account. Create an IAM user in the central account for the auditor. Attach an IAM policy providing full permissions to the bucket.

 

기업은 각 개발자 계정에 대해 Amazon S3 버킷으로 로그 파일을 전송하도록 AWS CloudTrail 로그를 구성했습니다. 조직은 관리 및 감사를 용이하게 하기 위해 중앙 집중식 AWS 계정을 설정했습니다. 내부 감사자는 CloudTrail 로그에 액세스해야 하지만 모든 개발자 계정 사용자에 대한 액세스는 제한되어야 합니다. 솔루션은 안전하고 효율적이어야 합니다. 솔루션 설계자는 이러한 고려 사항을 어떻게 해결해야 합니까?

A. 각 개발자 계정에서 AWS Lambda 함수를 구성하여 로그 파일을 중앙 계정에 복사합니다. 감사자의 중앙 계정에서 IAM 역할을 생성합니다. 버킷에 읽기 전용 권한을 제공하는 IAM 정책을 연결합니다.

B. 각 개발자 계정에서 CloudTrail을 구성하여 로그 파일을 중앙 계정의 S3 버킷으로 전달합니다. 감사자의 중앙 계정에 IAM 사용자를 생성합니다. 버킷에 대한 전체 권한을 제공하는 IAM 정책을 연결합니다.

C. 각 개발자 계정에서 CloudTrail을 구성하여 로그 파일을 중앙 계정의 S3 버킷으로 전달합니다. 감사자의 중앙 계정에서 IAM 역할을 생성합니다. 버킷에 읽기 전용 권한을 제공하는 IAM 정책을 연결합니다.

D. 각 개발자 계정의 S3 버킷에서 로그 파일을 복사하도록 중앙 계정에서 AWS Lambda 함수를 구성합니다. 감사자의 중앙 계정에 IAM 사용자를 생성합니다. 버킷에 대한 전체 권한을 제공하는 IAM 정책을 연결합니다.

 

C

B&C 두 답변 모두가 요구사항을 충족합니다. 보안 모범 사례 "최소 권한 부여"에 따라 답변 C를 선택할 수 있습니다.

(6월25일, 7월1일. 7월23일 기출)

 

No71.

A firm just launched a two-tier application in the us-east-1 Region's two Availability Zones. Databases are located on a private subnet, whereas web servers are located on a public subnet. The VPC is connected to the internet through an internet gateway. Amazon EC2 instances are used to host the application and database. The database servers are unable to connect to the internet in order to get fixes. A solutions architect must create a system that ensures database security while incurring the fewest operating costs. Which solution satisfies these criteria?

A. Deploy a NAT gateway inside the public subnet for each Availability Zone and associate it with an Elastic IP address. Update the routing table of the private subnet to use it as the default route.

B. Deploy a NAT gateway inside the private subnet for each Availability Zone and associate it with an Elastic IP address. Update the routing table of the private subnet to use it as the default route.

C. Deploy two NAT instances inside the public subnet for each Availability Zone and associate them with Elastic IP addresses. Update the routing table of the private subnet to use it as the default route.

D. Deploy two NAT instances inside the private subnet for each Availability Zone and associate them with Elastic IP addresses. Update the routing table of the private subnet to use it as the default route.

 

한 회사가 us-east-1 리전의 2개 가용 영역에서 2계층 애플리케이션을 시작했습니다. 데이터베이스는 프라이빗 서브넷에 있는 반면 웹 서버는 퍼블릭 서브넷에 있습니다. VPC는 인터넷 게이트웨이를 통해 인터넷에 연결됩니다. Amazon EC2 인스턴스는 애플리케이션과 데이터베이스를 호스팅하는 데 사용됩니다. 데이터베이스 서버를 업데이트 해야하는데 인터넷에 연결할 수 없습니다. 솔루션 설계자는 운영 비용을 최소화하면서 데이터베이스 보안을 보장하는 시스템을 만들어야 합니다. 이 기준을 충족하는 솔루션은 무엇입니까?

A. NAT 게이트웨이를 각 가용 영역의 퍼블릭 서브넷 내부에 배포하고 이를 탄력적 IP 주소와 연결합니다. 기본 route로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.

B. NAT 게이트웨이를 각 가용 영역의 프라이빗 서브넷 내부에 배포하고 이를 탄력적 IP 주소와 연결합니다. 기본 route로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.

C. 두 개의 NAT 인스턴스를 각 가용 영역에 대해 퍼블릭 서브넷 내부에 배포하고 탄력적 IP 주소와 연결합니다. 기본 route로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.

D. 두 개의 NAT 인스턴스를 각 가용 영역에 대해 프라이빗 서브넷 내부에 배포하고 탄력적 IP 주소와 연결합니다. 기본 route로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.

 

A

NAT 인스턴스랑 NAT 게이트웨이는 사실상 같은 역할이라고 알고있는데 NAT 게이트웨이가 더 나중에 나왔고 NAT인스턴스는 aws에서 지양 하고있습니다. 그리고  NAT 게이트웨이는 프라이빗 서브넷의 인터넷 연결을 위해 사용되는건데 꼭 퍼블릭 서브넷에 있어야합니다.
문제를 풀다 보면 NAT 게이트웨이 문제가 많이 나옵니다. NAT 인스턴스가 답이되는 경우는 거의 없습니다.

(6월25일 기출)

 

No72.

An online picture program enables users to upload photographs and modify them. The application provides two distinct service levels: free and paid. Paid users' photos are processed ahead of those submitted by free users. Amazon S3 is used to store the photos, while Amazon SQS is used to store the job information. How should a solutions architect propose a configuration?

A. Use one SQS FIFO queue. Assign a higher priority to the paid photos so they are processed first.

B. Use two SQS FIFO queues: one for paid and one for free. Set the free queue to use short polling and the paid queue to use long polling.

C. Use two SQS standard queues: one for paid and one for free. Configure Amazon EC2 instances to prioritize polling for the paid queue over the free queue.

D. Use one SQS standard queue. Set the visibility timeout of the paid photos to zero. Configure Amazon EC2 instances to prioritize visibility settings so paid photos are processed first.

 

온라인 사진 프로그램을 통해 사용자는 사진을 업로드하고 수정할 수 있습니다. 이 응용 프로그램은 무료 및 유료의 두 가지 서비스 수준을 제공합니다. 유료 사용자의 사진은 무료 사용자가 제출한 사진보다 먼저 처리됩니다. Amazon S3는 사진을 저장하는 데 사용되며 Amazon SQS는 작업 정보를 저장하는 데 사용됩니다. 솔루션 설계자는 구성을 어떻게 제안해야 합니까?

A. 하나의 SQS FIFO 큐를 사용합니다. 유료 사진이 먼저 처리되도록 더 높은 우선 순위를 지정합니다.

B. 두 개의 SQS FIFO 큐를 사용합니다. 하나는 유료사용자용이고 다른 하나는 무료사용자용입니다. 짧은 폴링을 사용하려면 무료 큐를 설정하고 긴 폴링을 사용하려면 유료 큐를 설정합니다.

C. 두 개의 SQS 표준 큐를 사용합니다. 하나는 유료 사용자용이고 다른 하나는 무료 사용자용입니다. 무료 큐보다 유료 큐에 대한 폴링의 우선 순위를 지정하도록 Amazon EC2 인스턴스를 구성합니다.

D. 하나의 SQS 표준 큐를 사용합니다. 유료 사진의 표시 제한 시간을 0으로 설정합니다. 유료 사진이 먼저 처리되도록 가시성 설정의 우선 순위를 지정하도록 Amazon EC2 인스턴스를 구성합니다.

 

C

SQS FIFO가 표준보다 비쌉니다.
무료,유료 두개 풀 구성후 우선순위는 EC2 어플에서 처리토록하면 굳이 FIFO 필요없습니다.

(7월1일, 7월15일, 7월23일 기출)
무료 큐보다 유료 큐에 대한 폴링의 우선 순위를 지정하도록 Amazon EC2 인스턴스를 구성합니다. → 보기에 이 부분 한글 해석이 이상해서 영문 보고 문제 풀이 진행함

 

No73.

A business uses Amazon Elastic Container Service (Amazon ECS) to perform an image processing workload on two private subnets. Each private subnet connects to the internet through a NAT instance. Amazon S3 buckets are used to store all photos. The business is worried about the expenses associated with data transfers between Amazon ECS and Amazon S3. What actions should a solutions architect do to save money?

A. Configure a NAT gateway to replace the NAT instances.

B. Configure a gateway endpoint for traffic destined to Amazon S3.

C. Configure an interface endpoint for traffic destined to Amazon S3.

D. Configure Amazon CloudFront for the S3 bucket storing the images.

 

기업은 Amazon Elastic Container Service(Amazon ECS)를 사용하여 2개의 프라이빗 서브넷에서 이미지 처리 워크로드를 수행합니다. 각 프라이빗 서브넷은 NAT 인스턴스를 통해 인터넷에 연결됩니다. Amazon S3 버킷은 모든 사진을 저장하는 데 사용됩니다. 비즈니스는 Amazon ECS와 Amazon S3 간의 데이터 전송과 관련된 비용을 걱정하고 있습니다. 솔루션 설계자는 비용을 절감하기 위해 어떤 조치를 취해야 합니까?

A. NAT 인스턴스를 교체하도록 NAT 게이트웨이를 구성합니다.

B. Amazon S3로 향하는 트래픽에 대한 게이트웨이 엔드포인트를 구성합니다.

C. Amazon S3로 향하는 트래픽에 대한 인터페이스 엔드포인트를 구성합니다.

D. 이미지를 저장하는 S3 버킷에 대해 Amazon CloudFront를 구성합니다.

 

B

앞의 다른 조건은 볼거 없고 ECS와 S3 전송 비용 문제 나오면 무지성 게이트웨이 엔드포인트입니다.
S3와 ECS(or EC2)를 게이트웨이 엔드포인트로 연결하면 둘 사이 전송 비용이 무료입니다.
S3와 DynamoDB는 ECS와 게이트웨이 엔드포인트로 연결 가능 그 외의 서비스를 연결하려면 인터페이스 엔드포인트를 사용합니다.

(6월17일 기출)

 

No74.

A firm runs a two-tier image processing program. The application is divided into two Availability Zones, each with its own public and private subnets. The web tier's Application Load Balancer (ALB) makes use of public subnets. Private subnets are used by Amazon EC2 instances at the application layer. The program is functioning more slowly than planned, according to users. According to a security audit of the web server log files, the application receives millions of unauthorized requests from a tiny number of IP addresses. While the organization finds a more permanent solution, a solutions architect must tackle the urgent performance issue. What solution architecture approach should be recommended to satisfy this requirement?

A. Modify the inbound security group for the web tier. Add a deny rule for the IP addresses that are consuming resources.

B. Modify the network ACL for the web tier subnets. Add an inbound deny rule for the IP addresses that are consuming resources.

C. Modify the inbound security group for the application tier. Add a deny rule for the IP addresses that are consuming resources.

D. Modify the network ACL for the application tier subnets. Add an inbound deny rule for the IP addresses that are consuming resources.

 

회사는 2계층 이미지 처리 프로그램을 운영합니다. 애플리케이션은 각각 고유한 퍼블릭 서브넷과 프라이빗 서브넷이 있는 두 개의 AZ로 나뉩니다. 웹 계층의 ALB(Application Load Balancer)는 퍼블릭 서브넷을 사용합니다. 프라이빗 서브넷은 애플리케이션 계층의 Amazon EC2 인스턴스에서 사용됩니다. 사용자에 따르면 프로그램이 계획보다 느리게 작동하고 있습니다. 웹 서버 로그 파일의 보안 감사에 따르면 애플리케이션은 소수의 IP 주소로부터 수백만 건의 무단 요청을 수신합니다. 조직이 보다 영구적인 솔루션을 찾는 동안 솔루션 설계자는 긴급히 성능 문제를 해결해야 합니다. 이 요구 사항을 충족하려면 어떤 솔루션 아키텍처 접근 방식을 권장해야 합니까?

A. 웹 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.

B. 웹 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.

C. 애플리케이션 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.

D. 애플리케이션 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.

 

B

보안그룹은 허용만 가능합니다. 
거부 규칙은 NACL만 가능합니다.

(6월25일, 7월23일 기출)

 

No75.

Amazon S3 is used by a business to store private audit records. According to the concept of least privilege, the S3 bucket implements bucket restrictions to limit access to audit team IAM user credentials. Company executives are concerned about inadvertent document destruction in the S3 bucket and need a more secure solution. What steps should a solutions architect take to ensure the security of audit documents?

A. Enable the versioning and MFA Delete features on the S3 bucket.

B. Enable multi-factor authentication (MFA) on the IAM user credentials for each audit team IAM user account.

C. Add an S3 Lifecycle policy to the audit team's IAM user accounts to deny the s3:DeleteObject action during audit dates.

D. Use AWS Key Management Service (AWS KMS) to encrypt the S3 bucket and restrict audit team IAM user accounts from accessing the KMS key.

 

Amazon S3는 기업에서 개인 감사 기록을 저장하는 데 사용됩니다. 최소 권한의 개념에 따라 S3 버킷은 버킷 제한을 구현하여 감사 팀 IAM 사용자 자격 증명에 대한 액세스를 제한합니다. 회사 경영진은 S3 버킷에서 의도하지 않은 문서 파괴에 대해 우려하고 있으며 보다 안전한 솔루션이 필요합니다. 솔루션 설계자는 감사 문서의 보안을 보장하기 위해 어떤 단계를 수행해야 합니까?

A. S3 버킷에서 버전 관리 및 MFA 삭제 기능을 활성화합니다.

B. 각 감사 팀 IAM 사용자 계정의 IAM 사용자 자격 증명에 대해 다단계 인증(MFA)을 활성화합니다.

C. 감사 날짜 동안 s3:DeleteObject 작업을 거부하도록 감사 팀의 IAM 사용자 계정에 S3 수명 주기 정책을 추가합니다.

D. AWS Key Management Service(AWS KMS)를 사용하여 S3 버킷을 암호화하고 감사 팀 IAM 사용자 계정이 KMS 키에 액세스하지 못하도록 제한합니다.

 

A

버저닝 + MFA삭제 기능은 세트로 나옵니다.
버저닝이 켜있어야 MFA삭제가 가능합니다.

S3 버킷에서 MFA 삭제를 활성화하려면 AWS 루트 계정을 사용해야 합니다. 또한 S3 버킷에서 버전 관리를 활성화했는지 확인합니다

(6월16일, 7월 21일, 7월25일 기출)
반응형

 

No76.

A business relies on Amazon S3 for object storage. The organization stores data in hundreds of S3 buckets. Certain S3 buckets contain less frequently accessed data than others. According to a solutions architect, lifecycle rules are either not followed consistently or are enforced in part, resulting in data being held in high-cost storage. Which option will reduce expenses without jeopardizing object availability?

A. Use S3 ACLs.

B. Use Amazon Elastic Block Store (Amazon EBS) automated snapshots.

C. Use S3 Intelligent-Tiering storage.

D. Use S3 One Zone-Infrequent Access (S3 One Zone-IA).

 

기업은 객체 스토리지에 Amazon S3를 사용합니다. 조직은 수백 개의 S3 버킷에 데이터를 저장합니다. 특정 S3 버킷에는 다른 버킷보다 액세스 빈도가 낮은 데이터가 포함되어 있습니다. 솔루션 설계자에 따르면 수명 주기 규칙이 일관되게 따르지 않거나 부분적으로 시행되어 데이터가 고가의 스토리지에 보관됩니다. 객체 가용성을 위협하지 않으면서 비용을 절감할 수 있는 옵션은 무엇입니까?

A. S3 ACL을 사용합니다.

B. Amazon Elastic Block Store(Amazon EBS) 자동 스냅샷을 사용합니다.

C. S3 Intelligent-Tiering 스토리지를 사용합니다.

D. S3 One Zone-Infrequent Access(S3 One Zone-IA)를 사용합니다.

 

C

내가 어떤 스토리지 클래스에 딱 넣기 고민스러울 경우 Intelligent-Tiering을 사용합니다.

(6월17일, 6월25일, 7월 21일 기출)

 

No77.

A startup is developing a shared storage solution for an AWS Cloud-hosted gaming application. The organization need the capacity to access data through SMB clients. The solution must be controlled completely. Which AWS solution satisfies these criteria?

A. Create an AWS DataSync task that shares the data as a mountable file system. Mount the file system to the application server.

B. Create an Amazon EC2 Windows instance. Install and configure a Windows file share role on the instance. Connect the application server to the file share.

C. Create an Amazon FSx for Windows File Server file system. Attach the file system to the origin server. Connect the application server to the file system.

D. Create an Amazon S3 bucket. Assign an IAM role to the application to grant access to the S3 bucket. Mount the S3 bucket to the application server.

 

한 스타트업이 AWS 클라우드 호스팅 게임 애플리케이션을 위한 공유 스토리지 솔루션을 개발하고 있습니다. 조직은 SMB 클라이언트를 통해 데이터에 액세스할 수 있는 능력이 필요합니다. 솔루션은 완전히 제어되어야 합니다. 이 기준을 충족하는 AWS 솔루션은 무엇입니까?

A. 데이터를 탑재 가능한 파일 시스템으로 공유하는 AWS DataSync 작업을 생성합니다. 파일 시스템을 애플리케이션 서버에 마운트합니다.

B. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 응용 프로그램 서버를 파일 공유에 연결합니다.

C. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성합니다. 파일 시스템을 원본 서버에 연결합니다. 응용 프로그램 서버를 파일 시스템에 연결합니다.

D. Amazon S3 버킷을 생성합니다. 애플리케이션에 IAM 역할을 할당하여 S3 버킷에 대한 액세스 권한을 부여합니다. S3 버킷을 애플리케이션 서버에 마운트합니다.

 

C

SMB —> sAmazon FSx for Windows

(6월17일, 7월15일, 7월21일, 7월23일 기출)

 

No78.

A business is implementing a web gateway. The firm want to limit public access to the program to the online part. The VPC was created with two public subnets and two private subnets to achieve this. The application will be hosted on many Amazon EC2 instances that will be managed through an Auto Scaling group. SSL termination must be delegated to a separate instance on Amazon EC2. What actions should a solutions architect take to guarantee compliance with these requirements?

A. Configure the Network Load Balancer in the public subnets. Configure the Auto Scaling group in the private subnets and associate it with the Application Load Balancer.

B. Configure the Network Load Balancer in the public subnets. Configure the Auto Scaling group in the public subnets and associate it with the Application Load Balancer.

C. Configure the Application Load Balancer in the public subnets. Configure the Auto Scaling group in the private subnets and associate it with the Application Load Balancer.

D. Configure the Application Load Balancer in the private subnets. Configure the Auto Scaling group in the private subnets and associate it with the Application Load Balancer.

 

기업에서 웹 게이트웨이를 구현하고 있습니다. 회사는 프로그램의 온라인 파트에 대한 퍼블릭 액세스를 제한하려고 합니다. 이를 달성하기 위해 VPC는 2개의 퍼블릭 서브넷과 2개의 프라이빗 서브넷으로 생성되었습니다. 애플리케이션은 Auto Scaling 그룹을 통해 관리될 많은 Amazon EC2 인스턴스에서 호스팅됩니다. SSL termination은 Amazon EC2의 별도 인스턴스에 위임해야 합니다. 이러한 요구 사항의 준수를 보장하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까?

A. 퍼블릭 서브넷에서 Network Load Balancer를 구성합니다. 프라이빗 서브넷에서 Auto Scaling 그룹을 구성하고 이를 Application Load Balancer와 연결합니다.

B. 퍼블릭 서브넷에서 Network Load Balancer를 구성합니다. 퍼블릭 서브넷에서 Auto Scaling 그룹을 구성하고 이를 Application Load Balancer와 연결합니다.

C. 퍼블릭 서브넷에서 Application Load Balancer를 구성합니다. 프라이빗 서브넷에서 Auto Scaling 그룹을 구성하고 이를 Application Load Balancer와 연결합니다.

D. 프라이빗 서브넷에서 Application Load Balancer를 구성합니다. 프라이빗 서브넷에서 Auto Scaling 그룹을 구성하고 이를 Application Load Balancer와 연결합니다.

 

C

-  ALB: L7레벨 HTTP 헤더 정보로 부하분산, SSL 탑재 가능, EC2 대신 SSL 암/복호화 가능, Round robing, ALB 세팅시 보안그룹 가능합니다.
-  NLB: TCP/UDP 기반 L4레벨 부하분산, L7레벨 HTTP 해더 해석 불가, IP불변, 보안그룹 설정 않습니다.

인터넷 접근 퍼블릭에 ALB 두고 SSL 처리, 인터넷 격리된 프라이빗 백앤드 EC2 보안그룹에 퍼블릭 ALB 접근 허용하고 EC2 인스턴스에서 SSL Data 해석/처리 구조로 적용 됩니다.

(7월8일 기출)

 

No79.

A corporation with an on-premises application is transitioning to AWS to boost the flexibility and availability of the application. The present design makes considerable use of a Microsoft SQL Server database. The firm want to investigate other database solutions and, if necessary, migrate database engines. The development team does a complete copy of the production database every four hours in order to create a test database. Users will encounter delay during this time period. What database should a solution architect propose as a replacement?

A. Use Amazon Aurora with Multi-AZ Aurora Replicas and restore from mysqldump for the test database.

B. Use Amazon Aurora with Multi-AZ Aurora Replicas and restore snapshots from Amazon RDS for the test database.

C. Use Amazon RDS for MySQL with a Multi-AZ deployment and read replicas, and use the standby instance for the test database.

D. Use Amazon RDS for SQL Server with a Multi-AZ deployment and read replicas, and restore snapshots from RDS for the test database.

 

온프레미스 애플리케이션을 보유한 기업은 애플리케이션의 유연성과 가용성을 높이기 위해 AWS로 전환하고 있습니다. 현재 설계에서는 Microsoft SQL Server 데이터베이스를 많이 사용합니다. 회사는 다른 데이터베이스 솔루션을 조사하고 필요한 경우 데이터베이스 엔진을 마이그레이션하려고 합니다. 개발 팀은 테스트 데이터베이스를 만들기 위해 4시간마다 프로덕션 데이터베이스의 전체 복사본을 만듭니다. 이 기간 동안 사용자는 지연이 발생합니다. 솔루션 설계자는 대체 데이터베이스로 어떤 데이터베이스를 제안해야 합니까?

A. 다중 AZ Aurora 복제본과 함께 Amazon Aurora를 사용하고 테스트 데이터베이스에 대해 mysqldump에서 복원합니다.

B. 다중 AZ Aurora 복제본과 함께 Amazon Aurora를 사용하고 테스트 데이터베이스에 대해 Amazon RDS에서 스냅샷을 복원합니다.

C. 다중 AZ 배포 및 읽기 전용 복제본과 함께 MySQL용 Amazon RDS를 사용하고 테스트 데이터베이스에 대기 인스턴스를 사용합니다.

D. 다중 AZ 배포 및 읽기 전용 복제본과 함께 SQL Server용 Amazon RDS를 사용하고 테스트 데이터베이스용으로 RDS에서 스냅샷을 복원합니다.

 

D

정답이 B, D로 갈리는 문제입니다.
답안 지문(B, D)이 사실 문제조건에 따라 선택하기 좀 애매모호합니다. 

- Amazon RDS 종류: Aurora, MySQL, PostgreSQL, Oracle, Microsoft SQL Server
- Aurora Compatible option with MySQL, PostgreSQL

DB를 변경한다면 저도 Aurora를 선택하겠으나 해당 답안 조건 상에서는 D의 내용이 DB Type은 그대로지만 그나마 좀 더 명시적인 것 같아 선택할 듯 싶습니다.

(7월1일, 7월23일 기출)

 

No80.

On a single Amazon EC2 instance, a business runs an ASP.NET MVC application. Due to a recent spike in application usage, users are experiencing poor response times during lunch hours. The firm must address this issue using the least amount of settings possible. What recommendations should a solutions architect make to satisfy these requirements?

A. Move the application to AWS Elastic Beanstalk. Configure load-based auto scaling and time-based scaling to handle scaling during lunch hours.

B. Move the application to Amazon Elastic Container Service (Amazon ECS). Create an AWS Lambda function to handle scaling during lunch hours.

C. Move the application to Amazon Elastic Container Service (Amazon ECS). Configure scheduled scaling for AWS Application Auto Scaling during lunch hours.

D. Move the application to AWS Elastic Beanstalk. Configure load-based auto scaling, and create an AWS Lambda function to handle scaling during lunch hours.

 

단일 Amazon EC2 인스턴스에서 기업은 ASP.NET MVC 애플리케이션을 실행합니다. 최근 애플리케이션 사용량이 급증하면서 점심 시간에 응답 시간이 좋지 않습니다. 회사는 가능한 최소한의 설정을 사용하여 이 문제를 해결해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 권장 사항을 제시해야 합니까?

A. 애플리케이션을 AWS Elastic Beanstalk로 이동합니다. 부하 기반 Auto Scaling 및 시간 기반 크기 조정을 구성하여 점심 시간에 조정을 처리합니다.

B. 애플리케이션을 Amazon Elastic Container Service(Amazon ECS)로 이동합니다. 점심 시간 동안 조정을 처리하는 AWS Lambda 함수를 생성합니다.

C. 애플리케이션을 Amazon Elastic Container Service(Amazon ECS)로 이동합니다. 점심 시간에 AWS Application Auto Scaling에 대한 예약 조정을 구성합니다.

D. 애플리케이션을 AWS Elastic Beanstalk로 이동합니다. 부하 기반 Auto Scaling을 구성하고 점심 시간 동안 조정을 처리하는 AWS Lambda 함수를 생성합니다.

 

A

싱글 EC2 인스턴스에서 ASP.NET 애플리케이션을 실행합니다. 점심 시간에 사용자 급증, 응답 시간이 좋지 않습니다. 회사는 가능한 최소한의 설정을 사용하여 이 문제를 해결해야 합니다.

애플리케이션을 Elastic Beanstalk로 이동. 부하 기반 Auto Scaling 및 시간 기반 Scaling 구성하여 점심 시간에 서버 보충합니다.

(6월25일, 7월15일, 7월23일 기출)

 

우리 모두 문제 중간 중간 배너는 한번씩 누르면서 문제 풀어요.

 

관련글

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기