NO.121 A company wants to deploy an API to AWS. The company plans to run the API on AWS
Fargate behind a load balancer. The API requires the use of header-based routing and must be
accessible from on-premises networks through an AWS Direct Connect connection and a private VIF.
The company needs to add the client IP addresses that connect to the API to an allow list in AWS. The
company also needs to add the IP addresses of the API to the allow list. The company's security team
will allow /27 CIDR ranges to be added to the allow list. The solution must minimize complexity and
operational overhead.
Which solution will meet these requirements?
(A). Create a new Network Load Balancer (NLB) in the same subnets as the Fargate task
deployments.Create a security group that includes only the client IP addresses that need access to
the API. Attach the new security group to the Fargate tasks. Provide the security team with the NLB's
IP addresses for the allow list.
(B). Create two new /27 subnets. Create a new Application Load Balancer (ALB) that extends across
the new subnets. Create a security group that includes only the client IP addresses that need access
to the API.Attach the security group to the ALB. Provide the security team with the new subnet IP
ranges for the allow list.
(C). Create two new '27 subnets. Create a new Network Load Balancer (NLB) that extends across the
new subnets. Create a new Application Load Balancer (ALB) within the new subnets. Create a security
group that includes only the client IP addresses that need access to the API. Attach the security group
to the ALB. Add the ALB's IP addresses as targets behind the NLB. Provide the security team with the
NLB's IP addresses for the allow list.
(D). Create a new Application Load Balancer (ALB) in the same subnets as the Fargate task
deployments.Create a security group that includes only the client IP addresses that need access to
the API. Attach the security group to the ALB. Provide the security team with the ALB's IP addresses
for the allow list.

 

한 회사가 API AWS에 배포하려고 합니다. 이 회사는 로드 밸런서 뒤에서 AWS Fargate에서 API를 실행할 계획입니다. API를 사용하려면 헤더 기반 라우팅을 사용해야 하며 AWS Direct Connect 연결 및 프라이빗 VIF를 통해 온프레미스 네트워크에서 액세스할 수 있어야 합니다. 회사는 API에 연결하는 클라이언트 IP 주소를 AWS의 허용 목록에 추가해야 합니다. 또한 회사는 API IP 주소를 허용 목록에 추가해야 합니다. 회사의 보안 팀은 /27 CIDR 범위를 허용 목록에 추가할 수 있도록 허용할 것입니다. 솔루션은 복잡성과 운영 오버헤드를 최소화해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. Fargate 작업 배포와 동일한 서브넷에 새 NLB (네트워크 부하 분산 장치) 를 만듭니다. API에 액세스해야 하는 클라이언트 IP 주소만 포함하는 보안 그룹을 만듭니다. 새 보안 그룹을 Fargate 작업에 연결합니다. 보안 팀에 허용 목록에 대한 NLB IP 주소를 제공합니다.

B. /27 서브넷을 새로 두 개 만듭니다. 새 서브넷으로 확장되는 새 애플리케이션 로드 밸런서 (ALB) 를 만듭니다. API에 액세스해야 하는 클라이언트 IP 주소만 포함하는 보안 그룹을 만듭니다. 보안 그룹을 ALB에 연결합니다.보안 팀에 허용 목록에 대한 새 서브넷 IP 범위를 제공합니다.

C. /27 서브넷을 새로 두 개 만듭니다. 새 서브넷으로 확장되는 새 NLB (네트워크 부하 분산 장치) 를 만듭니다.새 서브넷 내에 새 애플리케이션 로드 밸런서 (ALB) 를 생성합니다. API에 액세스해야 하는 클라이언트 IP 주소만 포함하는 보안 그룹을 만듭니다. 보안 그룹을 ALB에 연결합니다. ALB IP 주소를 NLB 뒤의 대상으로 추가합니다. 보안 팀에 허용 목록에 대한 NLB IP 주소를 제공합니다.

D. Fargate 작업 배포와 동일한 서브넷에 새 애플리케이션 로드 밸런서 (ALB) 를 생성합니다. API에 액세스해야 하는 클라이언트 IP 주소만 포함하는 보안 그룹을 만듭니다. 보안 그룹을 ALB에 연결합니다. 보안 팀에 허용 목록에 대한 ALB IP 주소를 제공합니다.


Answer: A D


NO.122 A company is using AWS CodePipeline for the CI/CO of an application to an Amazon EC2
Auto Scaling group. All AWS resources are defined in AWS CloudFormation templates. The
application artifacts are stored in an Amazon S3 bucket and deployed to the Auto Scaling group using
instance user data scripts. As the application has become more complex, recent resource changes in
the Cloud Formation templates have caused unplanned downtime.
How should a solutions architect improve the CI'CD pipeline to reduce the likelihood that changes in
the templates will cause downtime?
(A). Adapt the deployment scripts to detect and report CloudFormation error conditions when
performing deployments. Write test plans for a testing team to execute in a non-production
environment before approving the change for production.
(B). Implement automated testing using AWS CodeBuild in a test environment. Use CloudFormation
change sets to evaluate changes before deployment. Use AWS CodeDeploy to leverage blue/green
deployment patterns to allow evaluations and the ability to revert changes, if needed.
(C). Use plugins for the integrated development environment (IDE) to check the templates for errors,
and use the AWS CLI to validate that the templates are correct. Adapt the deployment code to check
for error conditions and generate notifications on errors. Deploy to a test environment and execute a
manual test plan before approving the change for production.
(D). Use AWS CodeDeploy and a blue/green deployment pattern with CloudFormation to replace the
user data deployment scripts. Have the operators log in to running instances and go through a
manual test plan to verify the application is running as expected.

 

한 회사에서 Amazon EC2 오토 스케일링 그룹에 대한 애플리케이션의 CI/CO AWS CodePipeline을 사용하고 있습니다. 모든 AWS 리소스는 AWS CloudFormation 템플릿에 정의되어 있습니다. 애플리케이션 아티팩트는 Amazon S3 버킷에 저장되고 인스턴스 사용자 데이터 스크립트를 사용하여 Auto Scaling 그룹에 배포됩니다. 애플리케이션이 더욱 복잡해짐에 따라 Cloud Formation 템플릿의 최근 리소스 변경으로 인해 계획되지 않은 다운타임이 발생했습니다.

솔루션 설계자는 템플릿 변경으로 인해 다운타임이 발생할 가능성을 줄이기 위해 CI'CD 파이프라인을 어떻게 개선해야 합니까?

A. 배포 스크립트를 조정하여 배포를 수행할 때 CloudFormation 오류 상태를 감지하고 보고합니다. 프로덕션 변경을 승인하기 전에 테스트 팀이 비프로덕션 환경에서 실행할 테스트 계획을 작성합니다.

B. 테스트 환경에서 AWS CodeBuild를 사용하여 자동화된 테스트를 구현합니다. CloudFormation 변경 세트를 사용하여 배포 전에 변경 사항을 평가합니다. AWS CodeDeploy를 사용하여 블루/그린 배포 패턴을 활용하여 평가를 허용하고 필요한 경우 변경 사항을 되돌릴 수 있습니다.

C. IDE (통합 개발 환경) 용 플러그인을 사용하여 템플릿에 오류가 있는지 확인하고 AWS CLI를 사용하여 템플릿이 올바른지 확인합니다. 배포 코드를 조정하여 오류 상태를 확인하고 오류에 대한 알림을 생성합니다.프로덕션 변경을 승인하기 전에 테스트 환경에 배포하고 수동 테스트 계획을 실행합니다.

D. AWS CodeDeploy 및 블루/그린 배포 패턴을 CloudFormation과 함께 사용하여 사용자 데이터 배포 스크립트를 대체합니다. 운영자가 실행 중인 인스턴스에 로그인하고 수동 테스트 계획을 통해 애플리케이션이 예상대로 실행되고 있는지 확인하도록 합니다.


Answer: B


NO.123 A company wants to migrate a 30 TB Oracle data warehouse from on premises to Amazon
Redshift The company used the AWS Schema Conversion Tool (AWS SCT) to convert the schema of
the existing data warehouse to an Amazon Redshift schema The company also used a migration
assessment report to identify manual tasks to complete.
The company needs to migrate the data to the new Amazon Redshift cluster during an upcoming data
freeze period of 2 weeks The only network connection between the on-premises data warehouse and
AWS is a 50 Mops internet connection Which migration strategy meets these requirements?
(A). Create an AWS Database Migration Service (AWS DMS) replication instance. Authorize the public
IP address of the replication instance to reach the data warehouse through the corporate firewall
Create a migration task to run at the beginning of the data freeze period.
(B). Install the AWS SCT extraction agents on the on-premises servers. Define the extract, upload, and
copy tasks to send the data to an Amazon S3 bucket. Copy the data into the Amazon Redshift cluster.
Run the tasks at the beginning of the data freeze period.
(C). install the AWS SCT extraction agents on the on-premises servers. Create a Site-to-Site VPN
connection Create an AWS Database Migration Service (AWS DMS) replication instance that is the
appropriate size Authorize the IP address of the replication instance to be able to access the onpremises
data warehouse through the VPN connection
(D). Create a job in AWS Snowball Edge to import data into Amazon S3 Install AWS SCT extraction
agents on the on-premises servers Define the local and AWS Database Migration Service (AWS DMS)
tasks to send the data to the Snowball Edge device When the Snowball Edge device is returned to
AWS and the data is available in Amazon S3, run the AWS DMS subtask to copy the data to Amazon
Redshift.

 

온프레미스 Oracle 데이터 웨어하우스에서 30TB Oracle 데이터 웨어하우스인 Amazon Redshift 이전하려는 기업이 있습니다. 조직은 AWS 스키마 변환 도구 (AWS SCT) 사용하여 이전 데이터 웨어하우스의 스키마를 Amazon Redshift 스키마로 변환했습니다.  또한 조직은 마이그레이션 평가 보고서를 사용하여 완료해야 하는 수동 작업을 강조했습니다.

조직은 2주간의 데이터 동결에 맞춰 데이터를 새로운 Amazon Redshift 클러스터로 이동해야 합니다. 온프레미스 데이터 웨어하우스와 AWS 간의 유일한 네트워크 링크는 50Mbps 인터넷 연결입니다.

이러한 기준을 충족하는 마이그레이션 접근 방식은 무엇입니까?

A. AWS DATABASE MIGRATION SERVICE (AWS DMS) 복제 인스턴스를 생성합니다. 기업 방화벽을 통해 데이터 웨어하우스에 도달하도록 복제 인스턴스의 퍼블릭 IP 주소를 승인합니다.데이터 고정 기간이 시작될 실행할 마이그레이션 작업을 만듭니다.

B. 온프레미스 서버에 AWS SCT 추출 에이전트를 설치합니다. 데이터를 Amazon S3 버킷으로 전송할 추출, 업로드 복사 작업을 정의합니다. 데이터를 Amazon Redshift 클러스터로 복사합니다. 데이터 고정 기간이 시작될 작업을 실행합니다.

C. 온프레미스 서버에 AWS SCT 추출 에이전트를 설치합니다. 사이트 VPN 연결을 만듭니다. 적절한 크기의 AWS DATABASE MIGRATION SERVICE (AWS DMS) 복제 인스턴스를 생성합니다. VPN 연결을 통해 온프레미스 데이터 웨어하우스에 액세스할 있도록 복제 인스턴스의 IP 주소를 승인합니다.

D. AWS Snowball Edge에서 작업을 생성하여 Amazon S3 데이터를 가져옵니다. 온프레미스 서버에 AWS SCT 추출 에이전트를 설치합니다. 데이터를 Snowball Edge 디바이스로 전송할 로컬 AWS DATABASE MIGRATION SERVICE (AWS DMS) 작업을 정의합니다.Snowball Edge 디바이스가 AWS 반환되고 Amazon S3에서 데이터를 사용할 있는 경우 AWS DMS 하위 작업을 실행하여 데이터를 Amazon Redshift 복사합니다.


Answer: D


NO.124 A media company has a 30-TB repository of digital news videos These videos are stored on
tape in an on-premises tape library and referenced by a Media Asset Management (MAM) system
The company wants to enrich the metadata for these videos in an automated fashion and put them
into a searchable catalog by using a MAM feature The company must be able to search based on
information in the video such as objects scenery items or people's faces A catalog is available that
contains faces of people who have appeared in the videos that include an image of each person The
company would like to migrate these videos to AWS The company has a high-speed AWS Direct
Connect connection with AWS and would like to move the MAM solution video content directly from
its current file system How can these requirements be met by using the LEAST amount of ongoing
management overhead and causing MINIMAL disruption to the existing system"'
(A). Set up an AWS Storage Gateway file gateway appliance on-premises. Use the MAM solution to
extract the videos from the current archive and push them into the file gateway Use the catalog of
faces to build a collection in Amazon Rekognition Build an AWS Lambda function that invokes the
Rekognition Javascript SDK to have Rekognition pull the video from the Amazon S3 files backing the
file gateway, retrieve the required metadata and push the metadata into the MAM solution
(B). Set up an AWS Storage Gateway tape gateway appliance on-premises Use the MAM solution to
extract the videos from the current archive and push them into the tape gateway Use the catalog of
faces to build a collection in Amazon Rekognition Build an AWS Lambda function that invokes the
Rekognition Javascript SDK to have Amazon Rekognition process the video in the tape gateway
retrieve the required metadata, and push the metadata into the MAM solution
(C). Configure a video ingestion stream by using Amazon Kinesis Video Streams Use the catalog of
faces to build a collection in Amazon Rekognition Stream the videos from the MAM solution into
Kinesis Video Streams Configure Amazon Rekognition to process the streamed videos Then, use a
stream consumer to retrieve the required metadata and push the metadata into the MAM solution
Configure the stream to store the videos in Amazon S3
(D). Set up an Amazon EC2 instance that runs the OpenCV libranes Copy the videos, images, and face
catalog from the on-premises library into an Amazon EBS volume mounted on this EC2 instance
Process the videos to retrieve the required metadata, and push the metadata into the MAM solution,
while also copying the video files to an Amazon S3 bucket

 

미디어 회사에는 30TB의 디지털 뉴스 비디오 저장소가 있습니다. 이러한 비디오는 온프레미스 테이프 라이브러리의 테이프에 저장되며 MAM (Media Asset Management : 미디어 자산 관리) 시스템에서 참조됩니다. 이 회사는 이러한 비디오의 메타데이터를 자동화된 방식으로 강화하고 MAM 기능을 사용하여 검색 가능한 카탈로그에 넣고자 합니다. 회사는 사물, 풍경, 항목 또는 사람의 얼굴과 같은 비디오 정보를 기반으로 검색할 수 있어야 합니다. 각 사람의 이미지가 포함 된 동영상에 등장한 사람들의 얼굴이 포함 된 카탈로그를 사용할 수 있습니다. 이 회사는 이러한 비디오를 AWS로 마이그레이션하려고 합니다. 이 회사는 AWS와 고속 AWS Direct Connect로 연결되어 있으며 현재 파일 시스템에서 직접 MAM 솔루션 비디오 콘텐츠를 이동하려고 합니다. 지속적인 관리 오버헤드를 최소화하고 기존 시스템의 중단을 최소화하여 이러한 요구 사항을 어떻게 충족할 수 있습니까?

A. 온프레미스에서 AWS 스토리지 게이트웨이 파일 게이트웨이 어플라이언스를 설정합니다. MAM 솔루션을 사용하여 현재 아카이브에서 비디오를 추출하여 파일 게이트웨이로 푸시합니다. 얼굴 카탈로그를 사용하여 Amazon Rekognition에서 컬렉션을 구축합니다. Rekognition 자바스크립트 SDK를 호출하는 AWS Lambda 함수를 빌드하여 Rekognition이 파일 게이트웨이를 지원하는 Amazon S3 파일에서 비디오를 가져오고, 필요한 메타데이터를 검색하고, 메타데이터를 MAM 솔루션으로 푸시하도록 합니다.

B. 온프레미스에서 AWS 스토리지 게이트웨이 테이프 게이트웨이 어플라이언스를 설정합니다. MAM 솔루션을 사용하여 현재 아카이브에서 비디오를 추출하여 테이프 게이트웨이로 푸시합니다. 얼굴 카탈로그를 사용하여 Amazon Rekognition에서 컬렉션 구축 Rekognition 자바스크립트 SDK를 호출하는 AWS Lambda 함수를 빌드하여 Amazon Rekognition이 테이프 게이트웨이의 비디오를 처리하고 필요한 메타데이터를 MAM 솔루션으로 푸시하도록 합니다.

C. Amazon Kinesis 비디오 스트림을 사용하여 비디오 수집 스트림을 구성합니다. 얼굴 카탈로그를 사용하여 Amazon Rekognition에서 컬렉션을 구축합니다. MAM 솔루션의 비디오를 Kinesis 비디오 스트림으로 스트리밍합니다. 스트리밍된 비디오를 처리하도록 Amazon Rekognition을 구성합니다. 그런 다음 스트림 소비자를 사용하여 필요한 메타데이터를 검색하고 메타데이터를 MAM 솔루션으로 푸시합니다.Amazon S3에 비디오를 저장하도록 스트림을 구성합니다.

D. OpenCV 라이브러리를 실행하는 Amazon EC2 인스턴스를 설정합니다. 온프레미스 라이브러리에서 Amazon EBS 볼륨으로 동영상, 이미지 및 얼굴 카탈로그를 복사합니다.

 

Answer: C A

 

NO.125 A company wants to migrate its data analytics environment from on premises to AWS The
environment consists of two simple Node js applications One of the applications collects sensor data
and loads it into a MySQL database The other application aggregates the data into reports When the
aggregation jobs run. some of the load jobs fail to run correctly The company must resolve the data
loading issue The company also needs the migration to occur without interruptions or changes for
the company's customers What should a solutions architect do to meet these requirements'?
(A). Set up an Amazon Aurora MySQL database as a replication target for the on-premises database
Create an Aurora Replica for the Aurora MySQL database, and move the aggregation jobs to run
against the Aurora Replica Set up collection endpomts as AWS Lambda functions behind a Network
Load Balancer (NLB). and use Amazon RDS Proxy to wnte to the Aurora MySQL database When the
databases are synced disable the replication job and restart the Aurora Replica as the primary
instance. Point the collector DNS record to the NLB.
(B). Set up an Amazon Aurora MySQL database Use AWS Database Migration Service (AWS DMS) to
perform continuous data replication from the on-premises database to Aurora Move the aggregation
jobs to run against the Aurora MySQL database Set up collection endpomts behind an Application
Load Balancer (ALB) as Amazon EC2 instances in an Auto Scaling group When the databases are
synced, point the collector DNS record to the ALB Disable the AWS DMS sync task after the cutover
from on premises to AWS
(C). Set up an Amazon Aurora MySQL database Use AWS Database Migration Service (AWS DMS) to
perform continuous data replication from the on-premises database to Aurora Create an Aurora
Replica for the Aurora MySQL database and move the aggregation jobs to run against the Aurora
Replica Set up collection endpoints as AWS Lambda functions behind an Application Load Balancer
(ALB) and use Amazon RDS Proxy to write to the Aurora MySQL database When the databases are
synced, point the collector DNS record to the ALB Disable the AWS DMS sync task after the cutover
from on premises to AWS
(D). Set up an Amazon Aurora MySQL database Create an Aurora Replica for the Aurora MySQL
database and move the aggregation jobs to run against the Aurora Replica Set up collection
endpoints as an Amazon Kinesis data stream Use Amazon Kinesis Data Firehose to replicate the data
to the Aurora MySQL database When the databases are synced disable the replication job and restart
the Aurora Replica as the primary instance Point the collector DNS record to the Kinesis data stream.

 

한 회사가 데이터 분석 환경을 온프레미스에서 AWS로 마이그레이션하려고 합니다. 환경은 두 개의 간단한 Node js 애플리케이션으로 구성됩니다. 애플리케이션 중 하나가 센서 데이터를 수집하여 MySQL 데이터베이스에 로드합니다. 다른 애플리케이션은 데이터를 보고서로 집계합니다. 집계 작업이 실행될 때. 일부 로드 작업이 올바르게 실행되지 않습니다. 회사는 데이터 로드 문제를 해결해야 합니다. 또한 회사 고객의 중단이나 변경 없이 마이그레이션을 수행해야 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?

A. Amazon Aurora MySQL 데이터베이스를 온프레미스 데이터베이스의 복제 대상으로 설정합니다. Aurora MySQL 데이터베이스에 대한 Aurora 복제본을 생성하고 Aurora 복제본에 대해 실행할 집계 작업을 이동합니다. 수집 엔드포인트를 NLB (네트워크 로드 밸런서) 뒤에서 AWS Lambda 함수로 설정하고 Amazon RDS 프록시를 사용하여 Aurora MySQL 데이터베이스에 씁니다. 데이터베이스가 동기화되면 복제 작업을 비활성화하고 Aurora 복제본을 기본 인스턴스로 다시 시작합니다. 수집기 DNS 레코드가 NLB를 가리키도록 합니다.

B. Amazon Aurora MySQL 데이터베이스 설정 AWS DMS (데이터베이스 마이그레이션 서비스) 를 사용하여 온프레미스 데이터베이스에서 Aurora로 연속 데이터 복제 수행 Aurora MySQL 데이터베이스에 대해 실행할 집계 작업 이동 ALB (애플리케이션 로드 밸런서) 뒤에 수집 엔드포인트를 Amazon으로 설정Auto Scaling 그룹의 EC2 인스턴스 데이터베이스가 동기화되면 수집기 DNS 레코드가 ALB를 가리키도록 합니다.  온프레미스에서 AWS로 전환한 후 AWS DMS 동기화 작업을 비활성화합니다.

C. Amazon Aurora MySQL 데이터베이스 설정 AWS DMS (데이터베이스 마이그레이션 서비스) 를 사용하여 온프레미스 데이터베이스에서 Aurora로 연속 데이터 복제 수행 Aurora MySQL 데이터베이스용 Aurora 복제본을 생성하고 Aurora에 대해 실행할 집계 작업을 이동합니다. 복제본 애플리케이션 로드 밸런서 (ALB) 뒤에서 AWS Lambda가 작동하도록 수집 엔드포인트를 설정하고 Amazon RDS 프록시를 사용하여 Aurora MySQL 데이터베이스에 씁니다. 데이터베이스가 동기화되면 수집기 DNS 레코드가 ALB를 가리키도록 합니다. 온프레미스에서 AWS로 전환한 후 AWS DMS 동기화 작업을 비활성화합니다.

D. Amazon Aurora MySQL 데이터베이스 설정 Aurora MySQL 데이터베이스에 대한 Aurora 복제본을 생성하고 Aurora 제본에 대해 실행할 집계 작업을 이동합니다. 수집 엔드포인트를 Amazon Kinesis 데이터 스트림으로 설정합니다.  Amazon Kinesis Data Firehose 사용하여 데이터를 Aurora MySQL 데이터베이스로 복제합니다.  데이터베이스가 동기화되면 복제 작업을 비활성화하고 기본 인스턴스로 Aurora 복제본을 다시 시작합니다. 수집기 DNS 레코드가 Kinesis 데이터 스트림을 가리키도록 합니다.


Answer: C


NO.126 A company manages multiple AWS accounts by using AWS Organizations. Under the root
OU. the company has two OUs: Research and DataOps.
Because of regulatory requirements, all resources that the company deploys in the organization must
reside in the ap-northeast-1 Region. Additionally. EC2 instances that the company deploys in the
DataOps OU must use a predefined list of instance types A solutions architect must implement a
solution that applies these restrictions. The solution must maximize operational efficiency and must
minimize ongoing maintenance Which combination of steps will meet these requirements? (Select
TWO )
(A). Create an IAM role in one account under the DataOps OU Use the ec2 Instance Type condition
key in an inline policy on the role to restrict access to specific instance types.
(B). Create an IAM user in all accounts under the root OU Use the aws RequestedRegion condition
key in an inline policy on each user to restrict access to all AWS Regions except ap-northeast-1.
(C). Create an SCP Use the aws:RequestedRegion condition key to restrict access to all AWS Regions
except ap-northeast-1 Apply the SCP to the root OU.
(D). Create an SCP Use the ec2Region condition key to restrict access to all AWS Regions except apnortheast-
1. Apply the SCP to the root OU. the DataOps OU. and the Research OU.
(E). Create an SCP Use the ec2:lnstanceType condition key to restrict access to specific instance types
Apply the SCP to the DataOps OU.

 

회사에서 AWS 조직을 사용하여 여러 AWS 계정을 관리합니다. 루트 OU 아래에 회사는 연구 DataOps라는 개의 OU 보유하고 있습니다. 규제 요구 사항으로 인해 회사에서 조직에 배포하는 모든 리소스는 ap-Northeast-1 리전에 상주해야 합니다. 추가적으로.회사에서 DataOps OU 배포하는 EC2 인스턴스는 사전 정의된 인스턴스 유형 목록을 사용해야 합니다. 솔루션 설계자는 이러한 제한을 적용하는 솔루션을 구현해야 합니다. 솔루션은 운영 효율성을 극대화하고 지속적인 유지 관리를 최소화해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까?( 선택)

A. DataOps OU 아래의 계정에 IAM 역할을 생성합니다. 역할의 인라인 정책에서 ec2 인스턴스 유형 조건 키를 사용하여 특정 인스턴스 유형에 대한 액세스를 제한합니다.

B. 루트 OU 아래의 모든 계정에 IAM 사용자를 생성합니다. ap-northeast-1 제외한 모든 AWS 리전에 대한 액세스를 제한하려면 사용자에 대한 인라인 정책에서 aws RequestedRegion 조건 키를 사용합니다.

C. SCP 생성합니다. AWS:요청된 리전 조건 키를 사용하여 ap-북동-1 제외한 모든 AWS 리전에 대한 액세스를 제한합니다. 루트 OU SCP 적용합니다.

D. SCP 생성합니다. EC2 리전 조건 키를 사용하여 apnortheast-1 제외한 모든 AWS 리전에 대한 액세스를 제한합니다. SCP 루트 OU, 데이터 운영 OU 연구 OU 적용합니다.

E. SCP 생성: ec2:LNStanceType 조건 키를 사용하여 특정 인스턴스 유형에 대한 액세스를 제한합니다. SCP 데이터 운영 OU 적용합니다.


Answer: C,E


NO.127 A company has used infrastructure as code (laC) to provision a set of two Amazon EC2
instances. The instances have remained the same tor several years.
The company's business has grown rapidly in the past few months. In response, the company's
operations team has implemented an Auto Scaling group to manage the sudden increases in traffic
Company policy requires a monthly installation of security updates on all operating systems that are
running.
The most recent security update required a reboot. As a result the Auto Scaling group terminated the
instances and replaced them with new, unpatched instances.
Which combination of steps should a sol-tons architect recommend to avoid a recurrence of this
issue? (Select TWO )
(A). Modify the Auto Scaling group by setting the Update policy to target the oldest launch
configuration for replacement.
(B). Create a new Auto Scaling group before the next patch maintenance During the maintenance
window patch both groups and reboot the instances.
(C). Create an Elastic Load Balancer in front of the Auto Scaling group Configure monitoring to ensure
that target group health checks return healthy after the Auto Scaling group replaces the terminated
instances
(D). Create automation scripts to patch an AMI. update the launch configuration, and invoke an Auto
Scaling instance refresh.
(E). Create an Elastic Load Balancer in front of the Auto Scaling group Configure termination
protection on the instances.

 

한 회사에서 코드로서의 인프라 (laC: infrastructure as code) 를 사용하여 두 개의 Amazon EC2 인스턴스 세트를 프로비저닝했습니다. 인스턴스는 몇 년 동안 동일하게 유지되었습니다. 이 회사의 사업은 지난 몇 개월 동안 빠르게 성장했습니다. 이에 대응하여 회사의 운영 팀은 갑작스러운 트래픽 증가를 관리하기 위해 Auto Scaling 그룹을 구현했습니다. 회사 정책에 따라 실행 중인 모든 운영 체제에 매월 보안 업데이트를 설치해야 합니다. 최신 보안 업데이트를 수행하려면 재부팅해야 했습니다. 그 결과 Auto Scaling 그룹이 인스턴스를 종료하고 패치가 적용되지 않은 새 인스턴스로 교체했습니다.

솔톤 건축가가 이 문제의 재발을 피하기 위해 권장하는 단계 조합은 무엇입니까?(두 개 선택)

A. 교체를 위해 가장 오래된 시작 구성을 대상으로 업데이트 정책을 설정하여 Auto Scaling 그룹을 수정합니다.

B. 다음 패치 유지 관리 전에 새 Auto Scaling 그룹을 생성합니다. 유지 관리 기간 동안 두 그룹을 모두 패치하고 인스턴스를 재부팅합니다.

C. Auto Scaling 그룹 앞에 탄력적 로드 밸런서 생성 Auto Scaling 그룹이 종료된 인스턴스를 교체한 후 대상 그룹 상태 확인이 정상으로 돌아가도록 모니터링을 구성합니다.

자동화 스크립트를 생성하여 AMI를 패치합니다. 시작 구성을 업데이트하고 Auto Scaling 인스턴스 새로 고침을 호출합니다.

E. Auto Scaling 그룹 앞에 탄력적 로드 밸런서를 생성합니다. 인스턴스에서 종료 보호를 구성합니다.


Answer: A,C


NO.128 A company is using AWS CloudFormation to deploy its infrastructure. The company is
concerned that if a production CloudFormation stack is deleted, important data stored in Amazon
RD5 databases or Amazon EBS volumes might also be deleted.
now can the company prevent users from accidentally deleting data m this way?
(A). Modify the CloudFormation templates to add a DeletionPolicy attribute to RDS and EBS
resources.
(B). Configure a stack policy that disallows the deletion of RDS and EBS resources.
(C). Modify IAM policies to deny deleting RDS and EBS resources that ate lagged with an
"aws:cloudformation:stack-name'' tag.
(D). Use AWS Config rules to prevent deleting RDS and EBS resources.

 

한 회사에서 AWS CloudFormation을 사용하여 인프라를 배포하고 있습니다. 이 회사는 프로덕션 CloudFormation 스택이 삭제되면 Amazon RD5 데이터베이스 또는 Amazon EBS 볼륨에 저장된 중요한 데이터도 삭제될 수 있다고 우려하고 있습니다.

이제 회사는 사용자가 실수로 이런 식으로 데이터를 삭제하는 것을 막을 수 있습니까?

A. CloudFormation 템플릿을 수정하여 RDS EBS 리소스에 삭제 정책 속성을 추가합니다.

B. RDS EBS 리소스의 삭제를 허용하지 않는 스택 정책을 구성합니다.

C. "aws:cloudformation:stack-name'' 태그로 지연된 RDS EBS 리소스의 삭제를 거부하도록 IAM 정책을 수정합니다.

D. AWS 구성 규칙을 사용하여 RDS EBS 리소스가 삭제되지 않도록 합니다.


Answer: A


NO.129 A company is deploying a new cluster for big data analytics on AWS. The cluster will run
across many Linux Amazon EC2 instances that are spread across multiple Availability Zones.
All of the nodes in the cluster must have read and write access to common underlying file storage.
The file storage must be highly available, must be resilient, must be compatible with the Portable
Operating System Interface (POSIX), and must accommodate high levels of throughput.
Which storage solution will meet these requirements?
(A). Provision an AWS Storage Gateway file gateway NFS file share that is attached to an Amazon S3
bucket. Mount the NFS file share on each EC2 instance In the cluster.
(B). Provision a new Amazon Elastic File System (Amazon EFS) file system that uses General Purpose
performance mode. Mount the EFS file system on each EC2 instance in the cluster.
(C). Provision a new Amazon Elastic Block Store (Amazon EBS) volume that uses the lo2 volume type.
Attach the EBS volume to all of the EC2 instances in the cluster.
(D). Provision a new Amazon Elastic File System (Amazon EFS) file system that uses Max I/O
performance mode. Mount the EFS file system on each EC2 instance in the cluster.

 

회사가 AWS에서 데이터 분석을 위한 클러스터를 배포하고 있습니다. 클러스터는 여러 가용 영역에 분산되어 있는 여러 Linux Amazon EC2 인스턴스에서 실행됩니다.

클러스터의 모든 노드에는 공통 기본 파일 저장소에 대한 읽기 쓰기 액세스 권한이 있어야 합니다. 파일 스토리지는 가용성이 높고 복원력이 있어야 하며 POSIX (이동식 운영 체제 인터페이스) 호환되어야 하며 높은 수준의 처리량을 수용해야 합니다.

이러한 요구 사항을 충족하는 스토리지 솔루션은 무엇입니까?

A. Amazon S3 버킷에 연결된 AWS 스토리지 게이트웨이 파일 게이트웨이 NFS 파일 공유를 프로비저닝합니다. 클러스터의 EC2 인스턴스에 NFS 파일 공유를 마운트합니다.

B. 범용 성능 모드를 사용하는 새로운 Amazon Elastic File System (Amazon EFS) 파일 시스템을 프로비저닝합니다. 클러스터의 EC2 인스턴스에 EFS 파일 시스템을 마운트합니다.

C. lo2 볼륨 유형을 사용하는 새로운 Amazon Elastic Block Store (Amazon EBS) 볼륨을 프로비저닝합니다. EBS 볼륨을 클러스터의 모든 EC2 인스턴스에 연결합니다.

D. 최대 I/O 성능 모드를 사용하는 새로운 Amazon Elastic File System (Amazon EFS) 파일 시스템을 프로비저닝합니다. 클러스터의 EC2 인스턴스에 EFS 파일 시스템을 마운트합니다.


Answer: D


NO.130 A company's site reliability engineer is performing a review of Amazon FSx for Windows File
Server deployments within an account that the company acquired Company policy states that all
Amazon FSx file systems must be configured to be highly available across Availability Zones.
During the review, the site reliability engineer discovers that one of the Amazon FSx file systems used
a deployment type of Single-AZ 2 A solutions architect needs to minimize downtime while aligning
this Amazon FSx file system with company policy.
What should the solutions architect do to meet these requirements?

(A). Reconfigure the deployment type to Multi-AZ for this Amazon FSx tile system
(B). Create a new Amazon FSx fie system with a deployment type o( Multi-AZ. Use AWS DataSync to
transfer data to the new Amazon FSx file system. Point users to the new location
(C). Create a second Amazon FSx file system with a deployment type of Single-AZ 2. Use AWS
DataSync to keep the data n sync. Switch users to the second Amazon FSx fie system in the event of
failure
(D). Use the AWS Management Console to take a backup of the Amazon FSx He system Create a new
Amazon FSx file system with a deployment type of Multi-AZ Restore the backup

 

한 회사의 사이트 안정성 엔지니어가 회사가 인수한 계정 내에서 Windows 파일 서버용 Amazon FSx 배포를 검토하고 있습니다. 회사 정책에 따르면 모든 Amazon FSx 파일 시스템은 가용 영역 전체에서 고가용성을 유지하도록 구성해야 합니다. 검토 중에 사이트 안정성 엔지니어는 Amazon FSx 파일 시스템 중 하나가 단일 AZ 2의 배포 유형을 사용했음을 발견했습니다. 솔루션 설계자는 이 Amazon FSx 파일 시스템을 회사 정책에 맞게 조정하면서 가동 중지 시간을 최소화해야 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?

A. Amazon FSx 타일 시스템에 대해 배포 유형을 다중 AZ로 재구성합니다.

B. 배포 유형이 다중 AZ인 새 Amazon FSx 파일 시스템을 생성합니다. AWS DataSync를 사용하여 데이터를 새로운 Amazon FSx 파일 시스템으로 전송합니다. 사용자에게 새 위치를 안내합니다.

C. 배포 유형이 단일 AZ 2인 두 번째 Amazon FSx 파일 시스템을 생성합니다. AWS DataSync를 사용하여 데이터를 동기화된 상태로 유지합니다. 장애 발생 시 사용자를 두 번째 Amazon FSx 파일 시스템으로 전환합니다.

D. AWS 관리 콘솔을 사용하여 Amazon FSx 파일 시스템을 백업합니다. 배포 유형이 다중 AZ인 새 Amazon FSx 파일 시스템을 생성합니다. 백업을 새 Amazon FSx 파일 시스템으로 복원합니다. 사용자에게 새 위치를 안내합니다.


Answer: B

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기