NO.161 A solutions architect has an operational workload deployed on Amazon EC2 instances in an
Auto Scaling group. The VPC architecture spans two Availability Zones (AZ) with a subnet in each that
the Auto Scaling group is targeting. The VPC is connected to an on-premises environment and
connectivity cannot be interrupted. The maximum size ol the Auto Scaling group is 20 instances in
service. The VPC IPv4 addressing is as follows:
VPC CIDR: 10.0.0.0/23
AZ1 subnet CIDR: 10.0.0.0/24
AZ2 subnet CIDR: 10.0.1.0/24
Since deployment, a third AZ has become available in the Region. The solutions architect wants to
adopt the new AZ without adding additional IPv4 address space and without service downtime.
Which solution will meet these requirements?
(A). Update the Auto Scaling group to use the AZ2 subnet only. Delete and re-create the AZ1 subnet
using hall the previous address space. Adjust the Auto Seating group to also use the new AZ1 subnet.
When the instances are healthy, adjust the Auto Scaling group to use the AZ1 subnet only. Remove
the current AZ2 subnet. Create a new AZ2 subnet using the second half of the address space from the
original AZ1 subnet. Create a new AZ3 subnet using half the original AZ2 subnet address space, then
update the Auto Scaling group to target all three new subnets.

(B). Terminate the EC2 instances in the AZ1 subnet. Delete and re-create the AZ1 subnet using half
the address space. Update the Auto Scaling group to use this new subnet. Repeat this for the second
AZ.
Define a new subnet in AZ3, then update the Auto Scaling group to target all three new subnets.

(C). Create a new VPC with the same IPv4 address space and define three subnets, with one for each
AZ.
Update the existing Auto Scaling group to target the new subnets in the new VPC.
(D). Update the Auto Scaling group to use the AZ2 subnet only. Update the AZ1 subnet to have half
the previous address space. Adjust the Auto Scaling group to also use the AZ1 subnet again. When
the instances are healthy, adjust the Auto Scaling group to use the AZ1 subnet only. Update the
current AZ2 subnet and assign the second half of the address space from the original AZ1 subnet.
Create a new AZ3 subnet using halt the original AZ2 subnet address space, then update the Auto
Scaling group to target all three new subnets.

 

솔루션스 아키텍트는 Auto Scaling 그룹의 Amazon EC2 인스턴스에 운영 워크로드를 배포했습니다. VPC 아키텍처는 Auto Scaling 그룹이 대상으로 하는 각 서브넷이 있는 2개의 가용 영역 (AZ) 에 걸쳐 있습니다. VPC가 온프레미스 환경에 연결되어 있어 연결을 중단할 수 없습니다. Auto Scaling 그룹의 최대 크기는 서비스 중인 인스턴스 20개입니다. VPC IPv4 주소 지정은 다음과 같습니다.

PVC 사이다: 10.0.0.0/23

AZ1 서브넷 CIDR: 10.0.0.0/24

AZ2 서브넷 CIDR: 10.0.1.0/24

배포 이후 리전에서 세 번째 AZ를 사용할 수 있게 되었습니다. 솔루션 설계자는 IPv4 주소 공간을 추가하지 않고 서비스 중단 없이 새로운 AZ를 채택하려고 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. AZ2 서브넷만 사용하도록 Auto Scaling 그룹을 업데이트합니다. 이전 주소 공간의 절반을 사용하여 AZ1 서브넷을 삭제하고 다시 만듭니다. 새 AZ1 서브넷도 사용하도록 Auto Scaling 그룹을 조정합니다. 인스턴스가 정상이면 AZ1 서브넷만 사용하도록 Auto Scaling 그룹을 조정합니다. 현재 AZ2 서브넷을 제거합니다.원래 AZ1 서브넷에서 주소 공간의 두 번째 절반을 사용하여 새 AZ2 서브넷을 만듭니다. 원래 AZ2 서브넷 주소 공간의 절반을 사용하여 새 AZ3 서브넷을 만든 다음 세 개의 새 서브넷을 모두 대상으로 하도록 Auto Scaling 그룹을 업데이트합니다.

B. AZ1 서브넷에서 EC2 인스턴스를 종료합니다. 주소 공간의 절반을 사용하여 AZ1 서브넷을 삭제하고 다시 만듭니다. 이 새 서브넷을 사용하도록 Auto Scaling 그룹을 업데이트합니다.두 번째 AZ에 대해 이 단계를 반복합니다. AZ3에서 새 서브넷을 정의한 다음 세 개의 새 서브넷을 모두 대상으로 하도록 Auto Scaling 그룹을 업데이트합니다.

C. 동일한 IPv4 주소 공간을 가진 새 VPC를 생성하고 각 AZ에 하나씩 3개의 서브넷을 정의합니다. 기존 Auto Scaling 그룹을 업데이트하여 새 VPC의 새 서브넷을 대상으로 지정합니다.

D. AZ2 서브넷만 사용하도록 Auto Scaling 그룹을 업데이트합니다. 이전 주소 공간을 갖도록 AZ1 서브넷을 업데이트합니다. AZ1 서브넷도 다시 사용하도록 Auto Scaling 그룹을 조정합니다. 인스턴스가 정상이면 AZ1 서브넷만 사용하도록 Auto Scaling 그룹을 조정합니다. 현재 AZ2 서브넷을 업데이트하고 원래 AZ1 서브넷에서 주소 공간의 두 번째 절반을 할당합니다. 원래 AZ2 서브넷 주소 공간의 절반을 사용하여 새 AZ3 서브넷을 만든 다음 세 개의 새 서브넷을 모두 대상으로 하도록 Auto Scaling 그룹을 업데이트합니다.


Answer: A


NO.162 A company manages an on-premises JavaScript front-end web application. The application is
hosted on two servers secured with a corporate Active Directory. The application calls a set of Javabased
microservices on an application server and stores data in a clustered MySQL database. The
application is heavily used during the day on weekdays. It is lightly used during the evenings and
weekends.
Daytime traffic to the application has increased rapidly, and reliability has diminished as a result. The
company wants to migrate the application to AWS with a solution that eliminates the need for server
maintenance, with an API to securely connect to the microservices.
Which combination of actions will meet these requirements? (Select THREE.)
(A). Host the web application on Amazon S3. Use Amazon Cognito identity pools (federated
identities) with SAML for authentication and authorization.
(B). Host the web application on Amazon EC2 with Auto Scaling. Use Amazon Cognito federation and
Login with Amazon for authentication and authorization.
(C). Create an API layer with Amazon API Gateway. Rehost the microservices on AWS Fargate
containers.
(D). Create an API layer with Amazon API Gateway. Rehost the microservices on Amazon Elastic
Container Service (Amazon ECS) containers.
(E). Replatform the database to Amazon RDS for MySQL.
(F). Replatform the database to Amazon Aurora MySQL Serverless.

 

한 회사에서 온프레미스 JavaScript 프런트 엔드 웹 애플리케이션을 관리합니다. 응용 프로그램은 회사 Active Directory로 보호되는 두 대의 서버에서 호스팅됩니다. 응용 프로그램은 응용 프로그램 서버에서 Java 기반 마이크로서비스 집합을 호출하고 클러스터된 MySQL 데이터베이스에 데이터를 저장합니다. 이 응용 프로그램은 평일 낮에 많이 사용됩니다.저녁과 주말에 가볍게 사용합니다. 애플리케이션에 대한 주간 트래픽이 급격히 증가했으며 그 결과 안정성이 떨어졌습니다. 이 회사는 마이크로서비스에 안전하게 연결하기 위한 API를 사용하여 서버 유지 관리가 필요 없는 솔루션을 사용하여 애플리케이션을 AWS로 마이그레이션하려고 합니다.

이러한 요구 사항을 충족하는 작업 조합은 무엇입니까?(세 개 선택)

A. Amazon S3에서 웹 애플리케이션을 호스팅합니다. 인증 및 권한 부여를 위해 SAML과 함께 Amazon Cognito 자격 증명 풀 (연동 자격 증명) 을 사용합니다.

B. 오토 스케일링을 사용하여 Amazon EC2에서 웹 애플리케이션을 호스팅합니다. 인증 및 권한 부여를 위해 Amazon Cognito 연동 및 Amazon에 로그인을 사용합니다.

C. Amazon API Gateway를 사용하여 API 계층을 생성합니다. AWS Fargate 컨테이너에서 마이크로서비스를 다시 호스팅합니다.

D. Amazon API Gateway를 사용하여 API 계층을 생성합니다. Amazon Elastic Container Service (Amazon ECS) 컨테이너에서 마이크로서비스를 다시 호스팅합니다.

E. 데이터베이스를 MySQL용 Amazon RDS로 다시 플랫폼합니다.

F. 데이터베이스를 Amazon Aurora MySQL 서버리스로 다시 플랫폼합니다.


Answer: A,C,D A,C,F


NO.163 A multimedia company needs to deliver its video-on-demand (VOD) content to its
subscribers in a cost-effective way. The video files range in size from 1-15 GB and are typically viewed
frequently for the first
6 months alter creation, and then access decreases considerably. The company requires all video files
to remain immediately available for subscribers. There are now roughly 30.000 files, and the
company anticipates doubling that number over time.
What is the MOST cost-effective solution for delivering the company's VOD content?
(A). Store the video files in an Amazon S3 bucket using S3 Intelligent-Tiering. Use Amazon CloudFront
to deliver the content with the S3 bucket as the origin.
(B). Use AWS Elemental MediaConvert and store the adaptive bitrate video files in Amazon S3.
Configure an AWS Elemental MediaPackage endpoint to deliver the content from Amazon S3.
(C). Store the video files in Amazon Elastic File System (Amazon EFS) Standard. Enable EFS lifecycle
management to move the video files to EFS Infrequent Access after 6 months. Create an Amazon EC2
Auto Scaling group behind an Elastic Load Balancer to deliver the content from Amazon EFS.

(D). Store the video files in Amazon S3 Standard. Create S3 Lifecycle rules to move the video files to
S3 Standard-Infrequent Access (S3 Standard-IA) after 6 months and to S3 Glacier Deep Archive after 1 year. Use Amazon CloudFront to deliver the content with the S3 bucket as the origin.

 

멀티미디어 회사는 비용 효율적인 방식으로 VOD (주문형 비디오) 콘텐츠를 가입자에게 제공해야 합니다. 비디오 파일의 크기는 1 ~ 15GB이며 일반적으로 처음 6 개월 동안 자주 볼 수 있으므로 액세스가 크게 줄어 듭니다. 회사는 구독자가 모든 비디오 파일을 즉시 사용할 수 있도록 요구합니다. 현재 약 30.000 개의 파일이 있으며 회사는 시간이 지남에 따라 그 수가 두 배로 늘어날 것으로 예상합니다.

회사의 VOD 콘텐츠를 제공하는 데 가장 비용 효율적인 솔루션은 무엇입니까?

A. S3 인텔리전트 티어링을 사용하여 비디오 파일을 Amazon S3 버킷에 저장합니다. Amazon CloudFront를 사용하여 S3 버킷을 오리진으로 사용하여 콘텐츠를 전송합니다.

B. AWS Elemental MediaConvert를 사용하고 적응형 비트레이트 비디오 파일을 Amazon S3에 저장합니다. Amazon S3에서 콘텐츠를 전송하도록 AWS Elemental MediaPackage 엔드포인트를 구성합니다.

C. 비디오 파일을 Amazon Elastic File System (Amazon EFS) Standard에 저장합니다. EFS 수명 주기 관리를 통해 6개월 후에 비디오 파일을 EFS 가끔 액세스로 이동할 수 있습니다. 탄력적 로드 밸런서 뒤에 Amazon EC2 오토 스케일링 그룹을 생성하여 Amazon EFS의 콘텐츠를 전송합니다.

D. 비디오 파일을 Amazon S3 스탠다드에 저장합니다. 비디오 파일을 6개월 후에는 S3 Standard-Infrequent Access (S3 Standard-IA) 로 이동하고 1년 후에는 S3 Glacier Deep 아카이브로 이동하는 S3 수명 주기 규칙을 생성합니다. Amazon CloudFront를 사용하여 S3 버킷을 오리진으로 사용하여 콘텐츠를 전송합니다.

 

Answer: A


NO.164 A company is planning to migrate an application from on premises to the AWS Cloud. The
company will begin the migration by moving the application's underlying data storage to AWS The
application data is stored on a shared tie system on premises, and the application servers connect to
the shared We system through SMB.
A solutions architect must implement a solution that uses an Amazon S3 bucket tor shared storage
Until the application Is fully migrated and code is rewritten to use native Amazon S3 APIs, the
application must continue to have access to the data through SMB The solutions architect must
migrate the application data to AWS to its new location while still allowing the on-premises
application to access the data.
Which solution will meet these requirements?
(A). Create a new Amazon FSx for Windows File Server fie system Configure AWS DataSync with one
location tor the on-premises file share and one location for the new Amazon FSx file system Create a
new DataSync task to copy the data from the on-premises file share location to the Amazon FSx file
system
(B). Create an S3 bucket for the application. Copy the data from the on-premises storage to the S3
bucket
(C). Deploy an AWS Server Migration Service (AWS SMS) VM to the on-premises environment. Use
AWS SMS to migrate the file storage server from on premises to an Amazon EC2 instance
(D). Create an S3 bucket for the application. Deploy a new AWS Storage Gateway Me gateway on an
on-premises VM. Create a new file share that stores data in the S3 bucket and is associated with the
tie gateway. Copy the data from the on-premises storage to the new file gateway endpoint.

 

한 회사에서 온프레미스에서 AWS 클라우드로 애플리케이션을 마이그레이션할 계획입니다. 이 회사는 애플리케이션의 기본 데이터 스토리지를 AWS로 이전하여 마이그레이션을 시작합니다. 애플리케이션 데이터는 온프레미스의 공유 시스템에 저장되고 애플리케이션 서버는 SMB를 통해 공유 웹 시스템에 연결됩니다. 솔루션 설계자는 공유 스토리지에 Amazon S3 버킷을 사용하는 솔루션을 구현해야 합니다.

애플리케이션이 완전히 마이그레이션되고 네이티브 Amazon S3 API를 사용하도록 코드를 다시 작성할 때까지 애플리케이션은 SMB를 통해 데이터에 계속 액세스할 수 있어야 합니다. 솔루션 설계자는 애플리케이션 데이터를 AWS로 새 위치로 마이그레이션하는 동시에 온프레미스 애플리케이션이 데이터에 액세스할 수 있도록 허용해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. Windows용 Amazon FSx 파일 서버 파일 시스템을 새로 생성합니다. 온프레미스 파일 공유를 위한 위치 하나와 새 Amazon FSx 파일 시스템을 위한 하나의 위치로 AWS DataSync를 구성합니다. 온프레미스 파일 공유 위치에서 Amazon FSx 파일 시스템으로 데이터를 복사하는 새 DataSync 작업을 생성합니다.

B. 애플리케이션용 S3 버킷을 생성합니다. 온프레미스 스토리지에서 S3 버킷으로 데이터를 복사합니다.

C. AWS Server Migration Service (AWS SMS) VM을 온프레미스 환경에 배포합니다. AWS SMS를 사용하여 온프레미스에서 Amazon EC2 인스턴스로 파일 스토리지 서버를 마이그레이션합니다.

D. 애플리케이션용 S3 버킷을 생성합니다. 온프레미스 VM에 새 AWS Storage Gateway 파일 게이트웨이를 배포합니다. S3 버킷에 데이터를 저장하고 파일 게이트웨이와 연결된 새 파일 공유를 생성합니다. 온프레미스 스토리지의 데이터를 새 파일 게이트웨이 엔드포인트로 복사합니다.


Answer: A D


NO.165 A solutions architect must update an application environment within AWS Elastic Beanstalk
using a With green deployment methodology. The solutions architect creates an environment that is
identical to the existing application environment and deploys the application to the new
environment.
What should be done next to complete the update?
(A). Redirect to the new environment using Amazon Route 53
(B). Select the Swap Environment URLs option.
(C). Replace the Auto Scaling launch configuration
(D). Update the DNS records to point to the green environment

 

솔루션스 아키텍트는 친환경 배포 방법론을 사용하여 AWS Elastic Beanstalk 내에서 애플리케이션 환경을 업데이트해야 합니다. 솔루션 설계자는 기존 애플리케이션 환경과 동일한 환경을 만들고 새 환경에 애플리케이션을 배포합니다.

업데이트를 완료하려면 다음 작업을 수행해야 합니까?

A. Amazon Route 53을 사용하여 새 환경으로 리디렉션합니다.

B. 스왑 환경(Swap Environment) URL 옵션을 선택합니다.

C. Auto Scaling 시작 구성을 바꿉니다.

D. 그린 환경(green environment)을 가리키도록 DNS 레코드를 업데이트합니다.


Answer: B

반응형


NO.166 A company has a three-tier application running on AWS with a web server, an application
server, and an Amazon RDS MySQL DB instance. A solutions architect is designing a disaster recovery
(OR) solution with an RPO of 5 minutes.
Which solution will meet the company's requirements?
(A). Configure AWS Backup to perform cross-Region backups of all servers every 5 minutes.
Reprovision the three tiers in the DR Region from the backups using AWS CloudFormation in the
event of a disaster.
(B). Maintain another running copy of the web and application server stack in the DR Region using
AWS CloudFormation drill detection. Configure cross-Region snapshots ol the DB instance to the DR
Region every 5 minutes. In the event of a disaster, restore the DB instance using the snapshot in the
DR Region.
(C). Use Amazon EC2 Image Builder to create and copy AMIs of the web and application server to
both the primary and DR Regions. Create a cross-Region read replica of the DB instance in the DR
Region. In the event of a disaster, promote the read replica to become the master and reprovision
the servers with AWS CloudFormation using the AMIs.
(D). Create AMts of the web and application servers in the DR Region. Use scheduled AWS Glue jobs
to synchronize the DB instance with another DB instance in the DR Region. In the event of a disaster,
switch to the DB instance in the DR Region and reprovision the servers with AWS CloudFormation
using the AMIs.

 

한 기업이 AWS를 사용하여 웹 서버, 애플리케이션 서버 및 Amazon RDS MySQL 데이터베이스 인스턴스를 포함하는 3계층 애플리케이션을 호스팅합니다. 한 솔루션 설계자가 5분 RPO (복구 지점 목표) 로 재해 복구 (DR) 솔루션을 개발하고 있습니다.

비즈니스 요구 사항을 가장 잘 충족하는 옵션은 무엇입니까?

A. 5분마다 모든 서버의 교차 리전 백업을 수행하도록 AWS Backup을 구성합니다. 재해 발생 시 AWS CloudFormation을 사용하여 백업에서 재해 복구 리전의 3개 계층을 다시 프로비저닝합니다.

B. AWS CloudFormation 드리프트 감지를 사용하여 DR 리전에서 실행 중인 웹 및 애플리케이션 서버 스택의 또 다른 사본을 유지 관리합니다. DB 인스턴스의 교차 리전 스냅샷을 5분마다 DR 리전으로 구성합니다. 재해가 발생할 경우 DR 리전의 스냅샷을 사용하여 DB 인스턴스를 복원합니다.

C. Amazon EC2 이미지 빌더를 사용하여 웹 및 애플리케이션 서버의 AMI를 생성하고 기본 리전과 DR 리전 모두에 복사합니다. DR 리전에 DB 인스턴스의 리전 간 읽기 전용 복제본을 생성합니다.재해가 발생할 경우 읽기 전용 복제본을 마스터로 승격하고 AMI를 사용하여 AWS CloudFormation으로 서버를 다시 프로비저닝합니다.

D. DR 영역에서 웹 및 애플리케이션 서버의 AMI를 생성합니다. 예약된 AWS Glue 작업을 사용하여 DB 인스턴스를 DR 리전의 다른 DB 인스턴스와 동기화합니다. 재해가 발생할 경우 DR 리전의 DB 인스턴스로 전환하고 AMI를 사용하여 AWS CloudFormation으로 서버를 다시 프로비저닝합니다.


Answer: C


NO.167 A travel company built a web application that uses Amazon Simple Email Service (Amazon
SES) to send email notifications to users. The company needs to enable logging to help troubleshoot
email delivery issues.
The company also needs the ability to do searches that are based on recipient, subject, and time
sent.
Which combination of steps should a solutions architect take to meet these requirements? (Select
TWO.)
(A). Create an Amazon SES configuration set with Amazon Kinesis Data Firehose as the destination.
Choose to send logs to an Amazon S3 bucket.
(B). Enable AWS CloudTrail logging. Specify an Amazon S3 bucket as the destination for the logs.
(C). Use Amazon Athena to query the fogs in the Amazon S3 bucket for recipient, subject, and time
sent.
(D). Create an Amazon CloudWatch log group. Configure Amazon SES to send logs to the log group
(E). Use Amazon Athena to query the logs in Amazon CloudWatch for recipient, subject, and time
sent.

 

한 여행사가 Amazon Simple Email Service (Amazon SES) 를 통해 소비자에게 이메일 알림을 보내는 웹 애플리케이션을 개발했습니다. 조직은 이메일 전송 문제를 해결하기 위해 로깅을 허용해야 합니다. 또한 조직에는 수신자, 주제 및 전송 시간별로 검색을 수행할 수 있는 역량이 필요합니다.

이러한 요구 사항을 달성하기 위해 솔루션 설계자가 함께 수행해야 하는 작업은 무엇입니까?(두 개 선택)

A. Amazon Kinesis 데이터 파이어호스를 대상으로 사용하여 Amazon SES 구성 세트를 생성합니다. Amazon S3 버킷으로 로그를 전송하도록 선택합니다.

B. AWS CloudTrail 로깅을 활성화합니다. Amazon S3 버킷을 로그의 대상으로 지정합니다.

C. Amazon Athena를 사용하여 Amazon S3 버킷의 로그에서 수신자, 제목 및 전송 시간을 쿼리합니다.

D. AWS CloudTrail 로그 그룹을 생성합니다. 로그 그룹에 로그를 전송하도록 Amazon SES를 구성합니다.

E. Amazon Athena를 사용하여 수신자, 제목 및 전송 시간에 대해 Amazon CloudWatch의 로그를 쿼리합니다.


Answer: D,E A,C


NO.168 A company is running a containerized application in the AWS Cloud. The application is
running by using Amazon Elastic Container Service (Amazon ECS) on a set Amazon EC2 instances. The
EC2 instances run in an Auto Scaling group.
The company uses Amazon Elastic Container Registry (Amazon ECRJ to store its container images
When a new image version is uploaded, the new image version receives a unique tag The company
needs a solution that inspects new image versions for common vulnerabilities and exposures The
solution must automatically delete new image tags that have Cntical or High severity findings The
solution also must notify the development team when such a deletion occurs Which solution meets
these requirements'?
(A). Configure scan on push on the repository. Use Amazon EventBndge (Amazon ClouoWatch Events)
to invoke an AWS Step Functions state machine when a scan is complete for images that have Cntical
or High severity findings Use the Step Functions state machine to delete the image tag for those
images and to notify the development team through Amazon Simple Notification Service (Amazon
SNS)
(B). Configure scan on push on the repository Configure scan results to be pushed to an Amazon

Simple Queue Service (Amazon SQS) queue Invoke an AWS Lambda function when a new message is
added to the SOS queue Use the Lambda function to delete the image tag for images that have
Critical or High seventy findings. Notify the development team by using Amazon Simple Email Service
(Amazon SES).
(C). Schedule an AWS Lambda function to start a manual image scan every hour Configure Amazon
EventBridge (Amazon CloudWatch Events) to invoke another Lambda function when a scan is
complete. Use the second Lambda function to delete the image tag for images that have Cnocal or
High severity findings. Notify the development team by using Amazon Simple Notification Service
(Amazon SNS)
(D). Configure periodic image scan on the repository Configure scan results to be added to an
Amazon Simple Queue Service (Amazon SQS) queue Invoke an AWS Step Functions state machine
when a new message is added to the SQS queue Use the Step Functions state machine to delete the
image tag for images that have Critical or High severity findings. Notify the development team by
using Amazon Simple Email Service (Amazon SES).

 

한 회사가 AWS 클라우드에서 컨테이너식 애플리케이션을 실행하고 있습니다. 애플리케이션은 설정된 Amazon EC2 인스턴스에서 Amazon Elastic Container Service (Amazon ECS) 를 사용하여 실행됩니다. EC2 인스턴스는 Auto Scaling 그룹에서 실행됩니다. 이 회사는 Amazon Elastic Container Registry (Amazon ECR) 를 사용하여 컨테이너 이미지를 저장합니다. 새 이미지 버전이 업로드되면 새 이미지 버전에 고유한 태그가 지정됩니다. 이 회사는 새로운 이미지 버전에서 일반적인 취약성과 노출을 검사하는 솔루션이 필요합니다. 솔루션은 심각도 또는 심각도 높음 결과가 있는 새 이미지 태그를 자동으로 삭제해야 합니다. 또한 이러한 삭제가 발생할 경우 솔루션은 개발 팀에 알려야 합니다. 

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. 저장소에서 푸시 시 검사를 구성합니다. 중요 또는 심각도 높음 검색 결과가 있는 이미지에 대한 스캔이 완료되면 Amazon EventBndge (Amazon CloudWatch Events) 를 사용하여 AWS Step Functions 상태 머신을 호출합니다. Step Functions 상태 시스템을 사용하여 해당 이미지의 이미지 태그를 삭제하고 Amazon Simple Notification Service (Amazon SNS) 를 통해 개발 팀에 알립니다.

B. 리포지토리에서 푸시 시 스캔 구성 Amazon Simple Queue Service (Amazon SQS) 대기열로 푸시될 스캔 결과 구성 SQS 대기열에 새 메시지가 추가될 때 AWS Lambda 함수 호출 Lambda 함수를 사용하여 중요 또는 높음 검색 결과가 있는 이미지에 대한 이미지 태그를 삭제합니다. Amazon Simple Email Service (Amazon SES) 를 사용하여 개발 팀에 알립니다.

C. 매시간 수동 이미지 스캔을 시작하도록 AWS Lambda 함수를 예약합니다. 스캔이 완료되면 다른 Lambda 함수를 호출하도록 Amazon EventBridge (Amazon CloudWatch Events) 를 구성합니다. 두 번째 Lambda 함수를 사용하여 [위험] 또는 [심각도 높음] 검색 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Notification Service (Amazon SNS) 를 사용하여 개발 팀에 알립니다.

D. 리포지토리에서 주기적 이미지 스캔 구성 Amazon Simple Queue Service (Amazon SQS) 대기열에 추가할 스캔 결과 구성 SQS 대기열에 새 메시지가 추가되면 AWS Step Functions 상태 머신을 호출합니다. Step Functions 상태 시스템을 사용하여 심각도 또는 심각도 높음 검색 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Email Service (Amazon SES) 를 사용하여 개발 팀에 알립니다.


Answer: C


NO.169 A company has several applications running in an on-premises data center. The data center
runs a mix of Windows and Linux VMs managed by VMware vCenter. A solutions architect needs to
create a plan to migrate the applications to AWS However, the solutions architect discovers that the
documentation for the applications is not up to date and that mere are no complete infrastructure
diagrams The company's developers lack time to discuss their applications and current usage with the
solutions architect What should the solutions architect do to gather the required information?
(A). Deploy the AWS Server Migration Service (AWS SMS) connector using the OVA image on the
VMware cluster to collect configuration and utilization data from the VMs
(B). Use the AWS Migration Portfolio Assessment (MPA) tool to connect to each of the VMs to collect
the configuration and utilization data.
(C). Install the AWS Application Discovery Service on each of the VMs to collect the configuration and
utilization data
(D). Register the on-premises VMs with the AWS Migration Hub to collect configuration and
utilization data

 

한 회사에서 온프레미스 데이터 센터에서 여러 애플리케이션을 실행하고 있습니다. 데이터 센터는 VMware vCenter에서 관리하는 윈도우와 리눅스 VM을 혼합하여 실행합니다. 솔루션스 아키텍트는 애플리케이션을 AWS로 마이그레이션하기 위한 계획을 세워야 합니다. 그러나 솔루션스 아키텍트는 애플리케이션에 대한 설명서가 최신 상태가 아니며 완전한 인프라 다이어그램이 아님을 알게 됩니다. 이 회사의 개발자는 솔루션 설계자와 애플리케이션 및 현재 사용에 대해 논의할 시간이 부족합니다. 

솔루션 설계자는 필요한 정보를 수집하기 위해 무엇을 해야 합니까?

A. VMware 클러스터의 OVA 이미지를 사용하여 AWS Server Migration Service (AWS SMS) 커넥터를 배포하여 VM에서 구성 및 사용률 데이터를 수집합니다.

B. AWS Migration Portfolio Assessment (MPA) 도구를 사용하여 각 VM에 연결하여 구성 및 사용률 데이터를 수집합니다.

C. 각 VM에 AWS Application Discovery Service를 설치하여 구성 및 사용률 데이터를 수집합니다.

D. 온프레미스 VM을 AWS 마이그레이션 허브에 등록하여 구성 및 사용률 데이터를 수집합니다.


Answer: A C

 

NO.170 A company has a policy that all Amazon EC2 instances that are running a database must
exist within the same subnets in a shared VPC Administrators must follow security compliance
requirements and are not allowed to directly log in to the shared account All company accounts are
members of the same organization in AWS Organizations. The number of accounts will rapidly
increase as the company grows.

(A). Add the VPC to the resource share. Add the account IDs as principals
(B). Add all subnets within the VPC to the resource share. Add the account IDs as principals
(C). Add all subnets within the VPC to the resource share. Add the organization as a principal.
(D). Add the VPC to the resource share. Add the organization as a principal

회사는 데이터베이스를 실행하는 모든 Amazon EC2 인스턴스가 공유 VPC의 동일한 서브넷 내에 있어야 한다는 정책을 가지고 있습니다. 관리자는 보안 규정 준수 요구 사항을 준수해야 하며 공유 계정에 직접 로그인할 수 없습니다. 모든 회사 계정은 AWS Organizations에서 동일한 조직의 구성원입니다. 회사가 성장함에 따라 계정 수가 급격히 증가 할 것입니다. 솔루션스 아키텍트는 AWS 리소스 액세스 관리자를 사용하여 공유 계정에 리소스 공유를 생성합니다. 

이러한 요구 사항을 충족하는 가장 운영 효율적인 구성은 무엇입니까?

A. 리소스 공유에 VPC를 추가합니다. 계정 ID를 보안 주체로 추가합니다.

B. VPC 내의 모든 서브넷을 리소스 공유에 추가합니다. 계정 ID를 보안 주체로 추가합니다.

C. VPC 내의 모든 서브넷을 리소스 공유에 추가합니다. 조직을 주도자로 추가합니다.

D. 리소스 공유에 VPC를 추가합니다. 조직을 주도자로 추가합니다.

 

Answer: B C

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기