NO.81 A company that is developing a mobile game is making game assets available in two AWS
Regions. Game assets ate served from a set of Amazon EC2 instances behind an Application Load
Balancer (ALB) in each Region. The company requires game assets to be (etched from the closest
Region. If game assets become unavailable in the closest Region, they should be fetched from the
other Region.
What should a solutions architect do to meet these requirements?
(A). Create an Amazon CloudFront distribution. Create an origin group with one origin for each ALB.
Set one of the origins as primary.
(B). Create an Amazon Route 53 health check for each ALB. Create a Route 53 failover routing record
pointing to the two ALBs. Set the Evaluate Target Health value to Yes.
(C). Create two Amazon CloudFront distributions, each with one ALB as the origin. Create an Amazon
Route 53 failover routing record pointing to the two CloudFront distributions. Set the Evaluate Target
Health value to Yes.
(D). Create an Amazon Route 53 health check for each ALB. Create a Route 53 latency alias record
pointing to the two ALBs. Set the Evaluate Target Health value to Yes.
모바일 게임을 개발 중인 회사는 두 AWS 리전에서 게임 자산을 제공하고 있습니다.게임 자산은 각 리전의 애플리케이션 로드 밸런서 (ALB) 뒤에 있는 Amazon EC2 인스턴스 세트에서 제공됩니다. 회사는 가장 가까운 지역에서 게임 자산을 가져와야 합니다. 가장 가까운 리전에서 게임 애셋을 사용할 수 없게 되면 다른 리전에서 가져와야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A. Amazon CloudFront 배포를 생성합니다. 각 ALB에 대해 하나의 오리진이 있는 오리진 그룹을 생성합니다. 원점 중 하나를 기본으로 설정합니다.
B. 각 ALB에 대해 Amazon Route 53 상태 확인을 생성합니다. 두 ALB를 가리키는 Route 53 장애 조치 라우팅 레코드를 생성합니다. Evaluate Target Health 값을 YES로 설정합니다.
C. 각각 하나의 ALB를 오리진으로 사용하는 두 개의 Amazon CloudFront 배포를 생성합니다. 두 개의 CloudFront 배포를 가리키는 Amazon Route 53 장애 조치 라우팅 레코드를 생성합니다. Evaluate Target Health 값을 YES로 설정합니다.
D. 각 ALB에 대해 Amazon Route 53 상태 확인을 생성합니다. 두 ALB를 가리키는 Route 53 지연 시간 별칭 레코드를 생성합니다. Evaluate Target Health 값을 YES로 설정합니다.
Answer: D
NO.82 A company is collecting a large amount of data from a fleet of loT devices. Data is stored as
Optimized Row Columnar (ORC) files in the Hadoop Distributed File System (HDFS) on a persistent
Amazon EMR cluster.
The company's data analytics team queries the data by using SQL in Apache Presto deployed on the
same EMR cluster Queries scan large amounts of data always run for less than 15 minutes, and run
only between 5 PM and 10 PM.
The company is concerned about the high cost associated with the current solution A solutions
architect must propose the most cost-effective solution that will allow SQL data queries.
Which solution will meet these requirements?
(A). Store data m Amazon S3 Use Amazon Redshift Spectrum to query data.
(B). Store data m Amazon S3 Use the AWS Glue Data Catalog and Amazon Athena to query data.
(C). Store data in EMR File System (EMRFS). Use Presto n Amazon EMR to query data.
(D). Store data m Amazon Redshift Use Amazon Redshift to query data
한 회사가 수많은 loT 디바이스로부터 많은 양의 데이터를 수집하고 있습니다. 데이터는 영구 Amazon EMR 클러스터의 하둡 분산 파일 시스템 (HDFS) 에 최적화된 행 열 형식 (ORC) 파일로 저장됩니다. 이 회사의 데이터 분석 팀은 동일한 EMR 클러스터에 배포된 Apache Presto의 SQL을 사용하여 데이터를 쿼리합니다. 쿼리는 대용량 데이터를 스캔하며 항상 15분 미만 동안 실행되며 오후 5시에서 오후 10시 사이에만 실행됩니다. 회사는 현재 솔루션과 관련된 높은 비용에 대해 우려하고 있습니다. 솔루션 설계자는 SQL 데이터 쿼리가 가능한 가장 비용 효율적인 솔루션을 제안해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon S3에 데이터를 저장합니다. Amazon Redshift 스펙트럼을 사용하여 데이터를 쿼리합니다.
B. Amazon S3에 데이터를 저장합니다. AWS Glue 데이터 카탈로그와 Amazon Athena를 사용하여 데이터를 쿼리합니다.
C. EMR File System (EMRFS) 에 데이터를 저장합니다. Amazon EMR에서 프레스토(Presto)를 사용하여 데이터를 쿼리합니다.
D. Amazon Redshift에 데이터를 저장합니다. Amazon Redshift를 사용하여 데이터를 쿼리합니다.
Answer: B
NO.83 An ecommerce website running on AWS uses an Amazon RDS for MySQL DB instance with
General Purpose SSD storage. The developers chose an appropriate instance type based on demand,
and configured
100 GB of storage with a sufficient amount of free space.
The website was running smoothly for a few weeks until a marketing campaign launched. On the
second day of the campaign, users reported long wait times and time outs. Amazon CloudWatch
metrics indicated that both reads and writes to the DB instance were experiencing long response
times. The CloudWatch metrics show 40% to 50% CPU and memory utilization, and sufficient free
storage space is still available. The application server logs show no evidence of database connectivity
issues.
What could be the root cause of the issue with the marketing campaign?
(A). It exhausted the I/O credit balance due to provisioning low disk storage during the setup phase.
(B). It caused the data in the tables to change frequently, requiring indexes to be rebuilt to optimize
queries.
(C). It exhausted the maximum number of allowed connections to the database instance.
(D). It exhausted the network bandwidth available to the RDS for MySQL DB instance.
AWS에서 호스팅하는 전자 상거래 웹 사이트는 범용 SSD 스토리지와 함께 MySQL용 Amazon RDS 데이터베이스 인스턴스를 사용합니다. 수요에 따라 개발자는 적절한 인스턴스 유형을 선택하고 적절한 여유 공간으로 100GB의 스토리지를 설정했습니다.
몇 주 동안 웹 사이트는 마케팅 노력이 시작될 때까지 정상적으로 운영되었습니다. 사용자는 프로모션 둘째 날에 긴 대기 시간과 시간 초과에 대해 불평했습니다. Amazon CloudWatch 측정에 따르면 데이터베이스 인스턴스에 대한 읽기 및 쓰기 모두 응답 시간이 길었습니다. CloudWatch 데이터에 따르면 CPU와 RAM의 40% ~ 50% 가 사용되고 있지만 충분한 여유 스토리지 공간은 여전히 사용할 수 있습니다. 응용 프로그램 서버 로그에 데이터베이스 연결 문제가 있다는 징후는 없습니다.
마케팅 캠페인 실패의 근본 원인은 무엇일까요?
A. 설정 단계에서 디스크 스토리지 부족 프로비저닝으로 인해 I/O 크레딧 밸런스가 소진되었습니다.
B. 이로 인해 테이블의 데이터가 자주 변경되어 쿼리를 최적화하기 위해 인덱스를 다시 작성해야 했습니다.
C. 데이터베이스 인스턴스에 허용되는 최대 연결 수를 모두 소모했습니다.
D. MySQL DB 인스턴스용 RDS에 사용할 수 있는 네트워크 대역폭이 모두 소모되었습니다
Answer: A
NO.84 A company runs an application that gives users the ability to search for videos and related
information by using keywords that are curated from content providers. The application data is
stored in an on-premises Oracle database that is 800 GB in size.
The company wants to migrate the data to an Amazon Aurora MySQL DB instance. A solutions
architect plans to use the AWS Schema Conversion Tool and AWS Database Migration Service (AWS
DMS) for the migration. During the migration, the existing database must serve ongoing requests.
The migration must be completed with minimum downtime Which solution will meet these
requirements?
(A). Create primary key indexes, secondary indexes, and referential integrity constraints in the target
database before starting the migration process
(B). Use AWS DMS to run the conversion report for Oracle to Aurora MySQL. Remediate any issues
Then use AWS DMS to migrate the data
(C). Use the M5 or CS DMS replication instance type for ongoing replication
(D). Turn off automatic backups and logging of the target database until the migration and cutover
processes are complete
회사는 사용자가 콘텐츠 제공자가 선별한 키워드를 사용하여 비디오 및 관련 정보를 검색할 수 있는 기능을 제공하는 애플리케이션을 실행합니다. 애플리케이션 데이터는 800GB 크기의 온프레미스 Oracle 데이터베이스에 저장됩니다. 이 회사는 데이터를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션하려고 합니다. 솔루션 설계자는 마이그레이션에 AWS 스키마 변환 도구 및 AWS Database Migration Service (AWS DMS) 를 사용할 계획입니다. 마이그레이션하는 동안 기존 데이터베이스는 진행 중인 요청을 처리해야 합니다. 마이그레이션은 다운타임을 최소화하면서 완료해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 마이그레이션 프로세스를 시작하기 전에 대상 데이터베이스에서 기본 키 인덱스, 보조 인덱스 및 참조 무결성 제약 조건을 만듭니다.
B. AWS DMS를 사용하여 Oracle에서 Aurora MySQL로의 변환 보고서를 실행합니다. 모든 문제를 해결합니다. 그런 다음 AWS DMS를 사용하여 데이터를 마이그레이션합니다.
C. 진행 중인 복제에 M5 또는 CS DMS 복제 인스턴스 유형을 사용합니다.
D. 마이그레이션 및 컷오버 프로세스가 완료될 때까지 대상 데이터베이스의 자동 백업 및 로깅을 해제합니다.
Answer: B
NO.85 A company has a project that is launching Amazon EC2 instances that are larger than
required. The project's account cannot be part of the company's organization in AWS Organizations
due to policy restrictions to keep this activity outside of corporate IT. The company wants to allow
only the launch of t3.small EC2 instances by developers in the project's account. These EC2 instances
must be restricted to the us-east-2 Region.
What should a solutions architect do to meet these requirements?
(A). Create a new developer account. Move all EC2 instances, users, and assets into us-east-2. Add
the account to the company's organization in AWS Organizations. Enforce a tagging policy that
denotes Region affinity.
(B). Create an SCP that denies the launch of all EC2 instances except I3.small EC2 instances in us-east-
2.
Attach the SCP to the project's account.
(C). Create and purchase a t3.small EC2 Reserved Instance for each developer in us-east-2. Assign
each developer a specific EC2 instance with their name as the tag.
(D). Create an 1AM policy than allows the launch of only t3.small EC2 instances in us-east-2. Attach
the policy to the roles and groups that the developers use in the project's account.
회사에 필요한 것보다 더 큰 Amazon EC2 인스턴스를 시작하는 프로젝트가 있습니다. 이 활동을 기업 IT 외부로 유지하기 위한 정책 제한으로 인해 프로젝트 계정은 AWS Organizations의 회사 조직에 속할 수 없습니다. 이 회사는 프로젝트 계정에서 개발자가 t3.small EC2 인스턴스를 시작할 수만 있도록 허용하려고 합니다. 이러한 EC2 인스턴스는 us-east-2 리전으로 제한되어야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A. 새 개발자 계정을 만듭니다. 모든 EC2 인스턴스, 사용자 및 자산을 us-east-2로 이동합니다. AWS 조직의 회사 조직에 계정을 추가합니다. 리전 선호도를 나타내는 태그 지정 정책을 적용합니다.
B. 미국-동부-2에 있는 i3.small EC2 인스턴스를 제외한 모든 EC2 인스턴스의 시작을 거부하는 SCP를 생성합니다.S CP를 프로젝트 계정에 연결합니다.
C. 미국-동부-2의 각 개발자를 위해 t3.small EC2 예약 인스턴스를 생성하고 구매합니다. 각 개발자에게 이름이 태그인 특정 EC2 인스턴스를 할당합니다.
D. us-east-2에서 t3.small EC2 인스턴스만 시작할 수 있도록 허용하는 IAM 정책을 생성합니다. 개발자가 프로젝트 계정에서 사용하는 역할 및 그룹에 정책을 연결합니다.
Answer: D
NO.86 A solutions architect needs to provide AWS Cost and Usage Report data from a company's
AWS Organizations management account The company already has an Amazon S3 bucket to store
the reports The reports must be automatically ingested into a database that can be visualized with
other toots.
Which combination of steps should the solutions architect take to meet these requirements? (Select
THREE i
(A). Create an Amazon EventBridge (Amazon CloudWatch Events) rule that a new object creation in
the S3 bucket will trigger
(B). Create an AWS Cost and Usage Report configuration to deliver the data into the S3 bucket
(C). Configure an AWS Glue crawler that a new object creation in the S3 bucket will trigger.
(D). Create an AWS Lambda function that a new object creation in the S3 bucket will trigger
(E). Create an AWS Glue crawler that me AWS Lambda function will trigger to crawl objects in me S3
bucket
(F). Create an AWS Glue crawler that the Amazon EventBridge (Amazon CloudWatCh Events) rule will
trigger to crawl objects m the S3 bucket
회사에 필요한 것보다 더 큰 Amazon EC2 인스턴스를 시작하는 프로젝트가 있습니다. 이 활동을 기업 IT 외부로 유지하기 위한 정책 제한으로 인해 프로젝트 계정은 AWS Organizations의 회사 조직에 속할 수 없습니다. 이 회사는 프로젝트 계정에서 개발자가 t3.small EC2 인스턴스를 시작할 수만 있도록 허용하려고 합니다. 이러한 EC2 인스턴스는 us-east-2 리전으로 제한되어야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A. 새 개발자 계정을 만듭니다. 모든 EC2 인스턴스, 사용자 및 자산을 us-east-2로 이동합니다. AWS 조직의 회사 조직에 계정을 추가합니다. 리전 선호도를 나타내는 태그 지정 정책을 적용합니다.
B. 미국-동부-2에 있는 i3.small EC2 인스턴스를 제외한 모든 EC2 인스턴스의 시작을 거부하는 SCP를 생성합니다.S CP를 프로젝트 계정에 연결합니다.
C. 미국-동부-2의 각 개발자를 위해 t3.small EC2 예약 인스턴스를 생성하고 구매합니다. 각 개발자에게 이름이 태그인 특정 EC2 인스턴스를 할당합니다.
D. us-east-2에서 t3.small EC2 인스턴스만 시작할 수 있도록 허용하는 IAM 정책을 생성합니다. 개발자가 프로젝트 계정에서 사용하는 역할 및 그룹에 정책을 연결합니다.
Answer: B,D,F B,D,E
NO.87 A company is running a data-intensive application on AWS. The application runs on a cluster
of hundreds of Amazon EC2 instances. A shared file system also runs on several EC2 instances that
store 200 TB of data. The application reads and modifies the data on the shared file system and
generates a report. The job runs once monthly, reads a subset of the files from the shared file
system, and takes about 72 hours to complete. The compute instances scale in an Auto Scaling group,
but the instances that host the shared file system run continuously. The compute and storage
instances are all in the same AWS Region.
A solutions architect needs to reduce costs by replacing the shared file system instances. The file
system must provide high performance access to the needed data for the duration of the 72-hour
run.
Which solution will provide the LARGEST overall cost reduction while meeting these requirements?
(A). Migrate the data from the existing shared file system to an Amazon S3 bucket that uses the S3
Intelligent-Tiering storage class. Before the job runs each month, use Amazon FSx for Lustre to create
a new file system with the data from Amazon S3 by using lazy loading. Use the new file system as the
shared storage for the duration of the job. Delete the file system when the job is complete.
(B). Migrate the data from the existing shared file system to a large Amazon Elastic Block Store
(Amazon EBS) volume with Multi-Attach enabled. Attach the EBS volume to each of the instances by
using a user data script in the Auto Scaling group launch template. Use the EBS volume as the shared
storage for the duration of the job. Detach the EBS volume when the job is complete.
(C). Migrate the data from the existing shared file system to an Amazon S3 bucket that uses the S3
Standard storage class. Before the job runs each month, use Amazon FSx for Lustre to create a new
file system with the data from Amazon S3 by using batch loading. Use the new file system as the
shared storage for the duration of the job. Delete the file system when the job is complete.
(D). Migrate the data from the existing shared file system to an Amazon S3 bucket. Before the job
runs each month, use AWS Storage Gateway to create a file gateway with the data from Amazon S3.
Use the file gateway as the shared storage for the job. Delete the file gateway when the job is
complete.
한 회사가 AWS에서 데이터 집약적 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 수백 개의 Amazon EC2 인스턴스로 구성된 클러스터에서 실행됩니다. 공유 파일 시스템은 200TB의 데이터를 저장하는 여러 EC2 인스턴스에서도 실행됩니다. 애플리케이션은 공유 파일 시스템의 데이터를 읽고 수정하고 보고서를 생성합니다. 작업은 매월 한 번 실행되고 공유 파일 시스템에서 파일의 하위 집합을 읽으며 완료하는 데 약 72시간이 걸립니다. 컴퓨팅 인스턴스는 Auto Scaling 그룹에서 확장되지만 공유 파일 시스템을 호스팅하는 인스턴스는 계속 실행됩니다. 컴퓨팅 인스턴스와 스토리지 인스턴스는 모두 동일한 AWS 리전에 있습니다. 솔루션 설계자는 공유 파일 시스템 인스턴스를 교체하여 비용을 줄여야 합니다. 파일 시스템은 72시간 실행 기간 동안 필요한 데이터에 대한 고성능 액세스를 제공해야 합니다.
이러한 요구 사항을 충족하면서 전체 비용 절감을 극대화할 수 있는 솔루션은 무엇입니까?
A. 기존 공유 파일 시스템의 데이터를 S3 인텔리전트 계층화 스토리지 클래스를 사용하는 Amazon S3 버킷으로 마이그레이션합니다. 매월 작업이 실행되기 전에 Amazon FSx for Lustre를 사용하여 지연 로드를 사용하여 Amazon S3의 데이터로 새 파일 시스템을 생성합니다. 작업 기간 동안 새 파일 시스템을 공유 스토리지로 사용합니다. 작업이 완료되면 파일 시스템을 삭제합니다.
B. 기존 공유 파일 시스템에서 다중 연결이 활성화된 대규모 Amazon Elastic Block Store (Amazon EBS) 볼륨으로 데이터를 마이그레이션합니다. Auto Scaling 그룹 시작 템플릿의 사용자 데이터 스크립트를 사용하여 EBS 볼륨을 각 인스턴스에 연결합니다. 작업 기간 동안 EBS 볼륨을 공유 스토리지로 사용합니다. 작업이 완료되면 EBS 볼륨을 분리합니다.
C. 기존 공유 파일 시스템의 데이터를 S3 Standard 스토리지 클래스를 사용하는 Amazon S3 버킷으로 마이그레이션합니다. 매월 작업이 실행되기 전에 Amazon FSx for Lustre를 사용하여 배치 로드를 사용하여 Amazon S3의 데이터로 새 파일 시스템을 생성합니다. 작업 기간 동안 새 파일 시스템을 공유 스토리지로 사용합니다. 작업이 완료되면 파일 시스템을 삭제합니다.
D. 기존 공유 파일 시스템의 데이터를 Amazon S3 버킷으로 마이그레이션합니다. 매월 작업을 실행하기 전에 AWS 스토리지 게이트웨이를 사용하여 Amazon S3의 데이터로 파일 게이트웨이를 생성합니다. 파일 게이트웨이를 작업의 공유 스토리지로 사용합니다. 작업이 완료되면 파일 게이트웨이를 삭제합니다.
Answer: B C
NO.88 A company hosts a web application on AWS in the us-east-1 Region. The application servers
are distributed across three Availability Zones behind an Application Load Balancer The database is
hosted in a MySQL database on an Amazon EC2 instance A solutions architect needs to design a
cross-Region data recovery solution using AWS services with an RTO of less than 5 minutes and an
RPO of less than 1 minute. The solutions architect is deploying application servers in us-west-2 and
has configured Amazon Route 53 health checks and DNS failover to us-west-2.
Which additional step should the solutions architect take?
(A). Migrate the database to an Amazon RDS for MySQL instance with a cross-Region read replica in
us-west-2
(B). Migrate the database to an Amazon Aurora global database with the primary in us-east-1 and the
secondary in us-west-2
(C). Migrate the database to an Amazon RDS for MySQL instance with a Multi-AZ deployment
(D). Create a MySQL standby database on an Amazon EC2 instance in us-west-2
한 회사가 미국-동부-1 리전의 AWS에서 웹 애플리케이션을 호스팅합니다. 애플리케이션 서버는 애플리케이션 로드 밸런서 뒤에 있는 3개의 가용 영역에 분산되어 있습니다. 데이터베이스는 Amazon EC2 인스턴스의 MySQL 데이터베이스에서 호스팅됩니다. 솔루션 설계자는 RTO가 5분 미만이고 RPO가 1분 미만인 AWS 서비스를 사용하여 리전 간 데이터 복구 솔루션을 설계해야 합니다. 이 솔루션스 아키텍트는 us-west-2에 애플리케이션 서버를 배포하고 있으며 Amazon Route 53 상태 확인 및 DNS 장애 조치를 us-west-2로 구성했습니다.
솔루션 설계자는 어떤 추가 단계를 수행해야 합니까?
A. us-west-2에 리전 간 읽기 전용 복제본이 있는 MySQL용 Amazon RDS 인스턴스로 데이터베이스를 마이그레이션합니다.
B. 기본 데이터베이스가 us-east-1에 있고 보조 데이터베이스가 us-west-2에 있는 Amazon Aurora 글로벌 데이터베이스로 데이터베이스를 마이그레이션합니다.
C. 다중 AZ 배포를 사용하여 데이터베이스를 MySQL용 Amazon RDS 인스턴스로 마이그레이션합니다.
D. 미국 서부-2의 Amazon EC2 인스턴스에 MySQL 대기 데이터베이스를 생성합니다.
Answer: C B
NO.89 A startup company hosts a fleet of Amazon EC2 instances in private subnets using the latest
Amazon Linux 2 AMI. The company's engineers rely heavily on SSH access to the instances for
troubleshooting.
The company's existing architecture includes the following:
* A VPC with private and public subnets, and a NAT gateway
* Site-to-Site VPN for connectivity with the on-premises environment
* EC2 security groups with direct SSH access from the on-premises environment The company needs
to increase security controls around SSH access and provide auditing of commands executed by the
engineers.
Which slrategy should a solutions architect use?
(A). Install and configure EC2 instance Connect on the fleet of EC2 instances. Remove all security
group rules attached to EC2 instances that allow inbound TCP on port 22. Advise the engineers to
remotely access the instances by using the EC2 Instance Connect CLI.
(B). Update the EC2 security groups to only allow inbound TCP on port 22 to the IP addresses of the
engineer's devices. Install the Amazon CloudWatch agent on all EC2 instances and send operating
system audit logs to CloudWatch Logs.
(C). Update the EC2 security groups to only allow inbound TCP on port 22 to the IP addresses of the
engineer's devices. Enable AWS Config for EC2 security group resource changes. Enable AWS Firewall
Manager and apply a security group policy that automatically remediates changes to rules.
(D). Create an 1AM role with the Ama2onSSMManagedlnstanceCore managed policy attached.
Attach the
1AM role to all the EC2 instances. Remove all security group rules attached to the EC2
(E). instances that allow inbound TCP on port 22. Have the engineers install the AWS Systems
Manager Session Manager plugin for their devices and remotely access the instances by using the
start-session API call from Systems Manager.
신생 기업이 최신 Amazon Linux 2 AMI를 사용하여 프라이빗 서브넷에서 Amazon EC2 인스턴스 플릿을 호스팅합니다. 이 회사의 엔지니어는 문제 해결을 위해 인스턴스에 대한 SSH 액세스에 크게 의존합니다.
이 회사의 기존 아키텍처에는 다음이 포함됩니다.
* 프라이빗 및 퍼블릭 서브넷이 있는 VPC와 NAT 게이트웨이.
* 온프레미스 환경과의 연결을 위한 사이트 간 VPN
* 온프레미스 환경에서 직접 SSH 액세스를 제공하는 EC2 보안 그룹.
회사는 SSH 액세스에 대한 보안 제어를 강화하고 엔지니어가 실행하는 명령에 대한 감사를 제공해야 합니다.
솔루션 설계자는 어떤 전략을 사용해야 합니까?
A. EC2 인스턴스 플릿에 EC2 인스턴스 연결을 설치하고 구성합니다. 포트 22에서 인바운드 TCP를 허용하는 EC2 인스턴스에 연결된 모든 보안 그룹 규칙을 제거합니다. 엔지니어에게 EC2 인스턴스 연결 CLI를 사용하여 인스턴스에 원격으로 액세스하도록 안내합니다.
B. 엔지니어 디바이스의 IP 주소에 대해 포트 22의 인바운드 TCP만 허용하도록 EC2 보안 그룹을 업데이트합니다. 모든 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치하고 운영 체제 감사 로그를 CloudWatch 로그로 전송합니다.
C. 엔지니어 디바이스의 IP 주소에 대해 포트 22의 인바운드 TCP만 허용하도록 EC2 보안 그룹을 업데이트합니다.EC2 보안 그룹 리소스 변경에 대해 AWS Config를 활성화합니다. AWS Firewall Manager를 활성화하고 규칙 변경 사항을 자동으로 수정하는 보안 그룹 정책을 적용합니다.
D. AM2ONSSM 관리형 LN인스턴스 코어 관리형 정책이 연결된 IAM 역할을 생성합니다. IAM 역할을 모든 EC2 인스턴스에 연결합니다.EC2에 연결된 모든 보안 그룹 규칙을 제거합니다.
E. 포트 22에서 인바운드 TCP를 허용하는 인스턴스입니다. 엔지니어에게 디바이스용 AWS Systems Manager 세션 관리자 플러그인을 설치하고 시스템 관리자의 시작 세션 API 호출을 사용하여 인스턴스에 원격으로 액세스하도록 합니다.
Answer: C B
NO.90 A financial company is building a system to generate monthly, immutable bank account
statements for its users. Statements are stored in Amazon S3. Users should have immediate access to
their monthly statements for up to 2 years. Some users access their statements frequently, whereas
others rarely access their statements.
The company's security and compliance policy requires that the statements be retained for at least 7
years.
What is the MOST cost-effective solution to meet the company's needs?
(A). Create an S3 bucket with Object Lock disabled. Store statements in S3 Standard. Define an S3
Lifecycle policy to transition the data to S3 Standard-Infrequent Access (S3 Standard-IA) after 30 days.
Define another S3 Lifecycle policy to move the data to S3 Glacier Deep Archive after 2 years. Attach
an S3 Glacier Vault Lock policy with deny delete permissions for archives less than 7 years old.
(B). Create an S3 bucket with versioning enabled. Store statements in S3 Intelligent-Tiering. Use
same-Region replication to replicate objects to a backup S3 bucket. Define an S3 Lifecycle policy for
the backup S3 bucket to move the data to S3 Glacier. Attach an S3 Glacier Vault Lock policy with deny
delete permissions for archives less than 7 years old.
(C). Create an S3 bucket with Object Lock enabled. Store statements in S3 Intelligent-Tiering. Enable
compliance mode with a default retention period of 2 years. Define an S3 Lifecycle policy to move the
data to S3 Glacier after 2 years. Attach an S3 Glacier Vault Lock policy with deny delete permissions
for archives less than 7 years old.
(D). Create an S3 bucket with versioning disabled. Store statements in S3 One Zone-Infrequent Access
(S3 One Zone-IA). Define an S3 Lifecyde policy to move the data to S3 Glacier Deep Archive after 2
years. Attach an S3 Glader Vault Lock policy with deny delete permissions for archives less than 7
years old.
금융 회사는 사용자를 위해 매월 불변의 은행 계좌 명세서를 생성하는 시스템을 구축하고 있습니다. 명령문은 Amazon S3에 저장됩니다. 사용자는 월별 명세서에 즉시 액세스하거나 최대 2년까지 액세스할 수 있어야 합니다. 일부 사용자는 자신의 명령문에 자주 액세스하지만 다른 사용자는 자신의 명령문에 거의 액세스하지 않습니다. 회사의 보안 및 규정 준수 정책에 따라 명세서는 최소 7년 동안 보관해야 합니다.
회사의 요구 사항을 충족하는 가장 비용 효율적인 솔루션은 무엇입니까?
A. 객체 잠금이 비활성화된 S3 버킷을 생성합니다. 명령문을 S3 스탠다드에 저장합니다. 30일 후에 데이터를 S3 Standard-Infrequent Access (S3 Standard-IA) 로 이전하도록 S3 수명 주기 정책을 정의합니다. 2년 후 데이터를 S3 Glacier Deep 아카이브로 이동하도록 또 다른 S3 수명 주기 정책을 정의합니다. 7년 미만의 아카이브에 대한 삭제 거부 권한이 있는 S3 Glacier 저장소 잠금 정책을 연결합니다.
B. 버전 관리가 활성화된 S3 버킷을 생성합니다. S3 인텔리전트 티어링에 명령문을 저장합니다. 동일 리전 복제를 사용하여 백업 S3 버킷에 객체를 복제합니다. 백업 S3 버킷에 대한 S3 수명 주기 정책을 정의하여 데이터를 S3 Glacier로 이동합니다. 7년 미만의 아카이브에 대한 삭제 거부 권한이 있는 S3 Glacier 저장소 잠금 정책을 연결합니다.
C. 객체 잠금이 활성화된 S3 버킷을 생성합니다. S3 인텔리전트 티어링에 명령문을 저장합니다. 기본 보존 기간이 2년인 규정 준수 모드를 사용하도록 설정합니다. 2년 후 데이터를 S3 Glacier로 이동하도록 S3 수명 주기 정책을 정의합니다. 7년 미만의 아카이브에 대한 삭제 거부 권한이 있는 S3 Glacier 저장소 잠금 정책을 연결합니다.
D. 버전 관리가 비활성화된 S3 버킷을 생성합니다. S3 One Zone-Infrequent Access (S3 One Zone-IA) 에 명령문을 저장합니다. 2년 후 데이터를 S3 Glacier Deep 아카이브로 이동하도록 S3 수명 주기 정책을 정의합니다. 7년 미만의 아카이브에 대한 삭제 거부 권한이 있는 S3 Glader 저장소 잠금 정책을 연결합니다.
Answer: B C
'Cloud > AWS SAP' 카테고리의 다른 글
SAP_C01 오답 수정 및 번역 No.101~No.110 (0) | 2022.07.07 |
---|---|
SAP_C01 오답 수정 및 번역 No.91~No.100 (0) | 2022.07.07 |
SAP_C01 오답 수정 및 번역 No.71~No.80 (0) | 2022.07.07 |
AWS SAP 합격 후기 및 팁 (0) | 2022.07.05 |
SAP_C01 오답 수정 및 번역 No.61~No.70 (0) | 2022.07.05 |