NO.101 A company is processing videos in the AWS Cloud by using Amazon EC2 instances in an Auto
Scaling group.
It takes 30 minutes to process a video. Several EC2 instances scale in and out depending on the
number of videos in an Amazon Simple Queue Service (Amazon SQS) queue.
The company has configured the SQS queue with a redrive policy that specifies a target dead-letter
queue and a maxReceiveCount of 1. The company has set the visibility timeout for the SQS queue to
1 hour. The company has set up an Amazon CloudWatch alarm to notify the development team when
there are messages in the dead-letter queue.
Several times during the day, the development team receives notification that messages are in the
dead-letter queue and that videos have not been processed properly. An investigation finds no errors
in the application logs.
How can the company solve this problem?
(A). Turn on termination protection for the EC2 instances.
(B). Update the visibility timeout for the SOS queue to 3 hours.
(C). Configure scale-in protection for the instances during processing.
(D). Update the redrive policy and set maxReceiveCount to 0.
한 회사에서 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 AWS 클라우드에서 비디오를 처리하고 있습니다. 비디오를 처리하는 데 30분이 걸립니다.Amazon 단순 대기열 서비스 (Amazon SQS) 대기열의 동영상 수에 따라 여러 EC2 인스턴스가 확장 및 축소됩니다.이 회사는 대상 배달 못한 편지 대기열과 MaxReceiveCount를 1로 지정하는 재구동 정책을 사용하여 SQS 대기열을 구성했습니다. 이 회사는 SQS 대기열의 가시성 제한 시간을 1시간으로 설정했습니다. 이 회사는 배달 못한 편지 대기열에 메시지가 있을 때 개발 팀에 알리기 위해 Amazon CloudWatch 경보를 설정했습니다. 하루 동안 여러 번 개발 팀은 메시지가 데드 레터 대기열에 있고 비디오가 제대로 처리되지 않았다는 알림을 받습니다. 조사 결과 애플리케이션 로그에서 오류가 발견되지 않았습니다.
이 문제를 어떻게 해결할 수 있을까요?
A. EC2 인스턴스에 대한 종료 보호를 켭니다.
B. SQS 대기열의 가시성 제한 시간을 3시간으로 업데이트합니다.
C. 처리 중에 인스턴스에 대한 축소 보호를 구성합니다.
D. 리드라이브 정책을 업데이트하고 MaxReceiveCount를 0으로 설정합니다.
Answer: A C
NO.102 A company is finalizing the architecture for its backup solution for applications running on
AWS. All of the applications run on AWS and use at least two Availability Zones in each tier.
Company policy requires IT to durably store nightly backups of all its data in at least two locations:
production and disaster recovery. The locations must be m different geographic regions. The
company also needs the backup to be available to restore immediately at the production data center,
and within 24 hours at the disaster recovery location backup processes must be fully automated.
What is the MOST cost-effective backup solution that will meet all requirements?
(A). Back up all the data to a large Amazon EBS volume attached to the backup media server m the
production region. Run automated scripts to snapshot these volumes nightly. and copy these
snapshots to the disaster recovery region.
(B). Back up all the data to Amazon S3 in the disaster recovery region Use a Lifecycle policy to move
this data to Amazon Glacier in the production region immediately Only the data is replicated: remove
the data from the S3 bucket in the disaster recovery region.
(C). Back up all the data to Amazon Glacier in the production region. Set up cross-region replication of
this data to Amazon Glacier in the disaster recovery region. Set up a lifecycle policy to delete any data
o der than 60 days.
(D). Back up all the data to Amazon S3 in the production region. Set up cross-region replication of this
S3 bucket to another region and set up a lifecycle policy in the second region to immediately move
this data to Amazon Glacier
스타트업은 AWS 앱용 백업 솔루션의 아키텍처가 거의 완성되고 있습니다. 모든 앱은 AWS에서 호스팅되며 각 티어는 최소 2개의 가용 영역을 사용합니다.
IT는 회사 정책에 따라 운영 및 재해 복구라는 두 곳 이상의 위치에서 모든 데이터의 야간 백업을 유지 관리해야 합니다. 장소는 지리적으로 구분되어야 합니다. 또한 이 회사는 백업에 즉시 액세스하여 운영 데이터 센터에서, 재해 복구 사이트에서 24시간 이내에 복원할 수 있어야 합니다. 이상적으로는 모든 백업 작업을 완전히 자동화해야 합니다.
가장 비용 효율적이고 모든 요구 사항을 충족하는 백업 시스템은 무엇입니까?
A. 프로덕션 리전의 백업 미디어 서버에 연결된 대용량 Amazon EBS 볼륨에 모든 데이터를 백업합니다. 자동화된 스크립트를 실행하여 야간에 이러한 볼륨의 스냅샷을 생성하고 이러한 스냅샷을 재해 복구 리전에 복사합니다.
B. 재해 복구 리전의 Amazon S3에 모든 데이터를 백업합니다. 수명 주기 정책을 사용하여 이 데이터를 프로덕션 리전의 Amazon Glacier로 즉시 이동합니다. 데이터만 복제되므로 재해 복구 리전의 S3 버킷에서 데이터를 제거합니다.
C. 프로덕션 리전의 Amazon Glacier에 모든 데이터를 백업합니다. 재해 복구 리전의 Amazon Glacier로 이 데이터의 리전 간 복제를 설정합니다. 60일보다 오래된 데이터를 모두 삭제하도록 수명 주기 정책을 설정합니다.
D. 프로덕션 리전의 Amazon S3에 모든 데이터를 백업합니다. 이 S3 버킷의 리전 간 복제를 다른 리전으로 설정하고 두 번째 리전에 수명 주기 정책을 설정하여 이 데이터를 즉시 Amazon Glacier로 이동합니다.
Answer: D
NO.103 A company is running a web application on Amazon EC2 instances in a production AWS
account. The company requires all logs generated from the web application to be copied to a central
AWS account (or analysis and archiving. The company's AWS accounts are currently managed
independently. Logging agents are configured on the EC2 instances to upload the tog files to an
Amazon S3 bucket in the central AWS account.
A solutions architect needs to provide access for a solution that will allow the production account to
store log files in the central account. The central account also needs to have read access to the tog
files.
What should the solutions architect do to meet these requirements?
(A). Create a cross-account role in the central account. Assume the role from the production account
when the logs are being copied.
(B). Create a policy on the S3 bucket with the production account ID as the principal. Allow S3 access
from a delegated user.
(C). Create a policy on the S3 bucket with access from only the CIDR range of the EC2 instances in the
production account. Use the production account ID as the principal.
(D). Create a cross-account role in the production account. Assume the role from the production
account when the logs are being copied.
한 회사가 프로덕션 AWS 계정의 Amazon EC2 인스턴스에서 웹 애플리케이션을 실행하고 있습니다. 이 회사는 분석 및 보관을 위해 웹 애플리케이션에서 생성된 모든 로그를 중앙 AWS 계정으로 복사해야 합니다. 회사의 AWS 계정은 현재 독립적으로 관리됩니다. 로깅 에이전트는 중앙 AWS 계정의 Amazon S3 버킷에 tog 파일을 업로드하도록 EC2 인스턴스에 구성됩니다.
솔루션 설계자는 프로덕션 계정이 중앙 계정에 로그 파일을 저장할 수 있는 솔루션에 대한 액세스 권한을 제공해야 합니다. 중앙 계정에는 tog 파일에 대한 읽기 권한도 있어야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A. 중앙 계정에서 교차 계정 역할을 생성합니다. 로그를 복사할 때 프로덕션 계정의 역할을 가정합니다.
B. 프로덕션 계정 ID를 보안 주체로 사용하여 S3 버킷에 정책을 생성합니다. 위임된 사용자의 S3 액세스를 허용합니다.
C. 프로덕션 계정에 있는 EC2 인스턴스의 CIDR 범위에서만 액세스할 수 있는 S3 버킷에 정책을 생성합니다. 프로덕션 계정 ID를 보안 주체로 사용합니다.
D. 프로덕션 계정에서 교차 계정 역할을 생성합니다. 로그를 복사할 때 프로덕션 계정의 역할을 가정합니다.
Answer: B A
NO.104 A company is running an Apache Hadoop cluster on Amazon EC2 instances. The Hadoop
cluster stores approximately 100 TB of data for weekly operational reports and allows occasional
access for data scientists to retrieve data. The company needs to reduce the cost and operational
complexity for storing and serving this data.
Which solution meets these requirements in the MOST cost-effective manner?
(A). Move the Hadoop cluster from EC2 instances to Amazon EMR. Allow data access patterns to
remain the same.
(B). Write a script that resizes the EC2 instances to a smaller instance type during downtime and
resizes the instances to a larger instance type before the reports are created.
(C). Move the data to Amazon S3 and use Amazon Athena to query the data for reports. Allow the
data scientists to access the data directly in Amazon S3.
(D). Migrate the data to Amazon DynamoDB and modify the reports to fetch data from DynamoDB.
Allow the data scientists to access the data directly in DynamoDB.
한 회사에서 Amazon EC2 인스턴스에서 Apache 하둡 클러스터를 실행하고 있습니다. 하둡 클러스터는 주간 운영 보고서를 위해 약 100TB의 데이터를 저장하고 데이터 과학자가 데이터를 검색하기 위해 가끔 액세스할 수 있도록 합니다. 회사는 이 데이터를 저장하고 제공하는 데 드는 비용과 운영 복잡성을 줄여야 합니다.
가장 비용 효율적인 방식으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 하둡 클러스터를 EC2 인스턴스에서 Amazon EMR로 이동합니다. 데이터 액세스 패턴을 동일하게 유지할 수 있습니다.
B. 가동 중지 시간 동안 EC2 인스턴스의 크기를 더 작은 인스턴스 유형으로 조정하고 보고서를 생성하기 전에 인스턴스의 크기를 더 큰 인스턴스 유형으로 조정하는 스크립트를 작성합니다.
C. 데이터를 Amazon S3로 이동하고 Amazon Athena를 사용하여 보고서에 대한 데이터를 쿼리합니다. 데이터 과학자가 Amazon S3에서 직접 데이터에 액세스할 수 있도록 허용합니다.
D. 데이터를 Amazon DynamoDB로 마이그레이션하고 보고서를 수정하여 DynamoDB에서 데이터를 가져옵니다. 데이터 과학자가 DynamoDB에서 직접 데이터에 액세스할 수 있도록 허용합니다.
Answer: A C
NO.105 A company hosts a blog post application on AWS using Amazon API Gateway. Amazon
DynamoDB, and AWS Lambda The application currently does not use API keys to authorize requests
The API model is as follows:
GET /posts/Jpostld) to get post details
GET /users/{userld}. to get user details
GET /comments/{commentld}: to get comments details
The company has noticed users are actively discussing topics in the comments section, and the
company wants to increase user engagement by making the comments appear in real time Which
design should be used to reduce comment latency and improve user experience?
(A). Use edge-optimized API with Amazon CloudFront to cache API responses.
(B). Modify the blog application code to request GET/commentsV{commentld} every 10 seconds
(C). Use AWS AppSync and leverage WebSockets to deliver comments
(D). Change the concurrency limit of the Lambda functions to lower the API response time.
한 회사에서 Amazon API Gateway, Amazon DynamoDB 및 AWS Lambda를 사용하여 AWS에서 블로그 게시물 애플리케이션을 호스팅합니다. 애플리케이션은 현재 API 키를 사용하여 요청을 승인하지 않습니다. API 모델은 다음과 같습니다.
GET /posts/{postld} 를 사용하여 게시물 세부 정보를 가져옵니다
GET /users/{userld}. 사용자 세부 정보를 가져올 수 있습니다.
GET /comments/{commentld}: 주석 세부 정보를 얻으려면
회사는 사용자가 댓글 섹션에서 주제를 적극적으로 논의하고 있음을 알았으며 회사는 댓글을 실시간으로 표시하여 사용자 참여를 높이고 자합니다.
댓글 지연 시간을 줄이고 사용자 경험을 개선하기 위해 어떤 디자인을 사용해야 합니까?
A. Amazon CloudFront와 함께 엣지 최적화 API를 사용하여 API 응답을 캐시합니다.
B. 10초마다 GET comment[commented]을 요청하도록 블로그 애플리케이션 코드를 수정합니다.
C. AWS AppSync를 사용하고 웹 소켓을 활용하여 의견을 전달합니다.
D. Lambda 함수의 동시성 제한을 변경하여 API 응답 시간을 줄입니다.
Answer: C
NO.106 A company has multiple AWS accounts as part of an organization created with AWS
Organizations. Each account has a VPC in the us-east-2 Region and is used for either production or
development workloads.
Amazon EC2 instances across production accounts need to communicate with each other, and EC2
instances across development accounts need to communicate with each other, but production and
development instances should not be able to communicate with each other.
To facilitate connectivity, the company created a common network account. The company used AWS
Transit Gateway to create a transit gateway in the us-east-2 Region in the network account and
shared the transit gateway with the entire organization by using AWS Resource Access Manager.
Network administrators then attached VPCs in each account to the transit gateway, after which the
EC2 instances were able to communicate across accounts. However, production and development
accounts were also able to communicate with one another.
Which set of steps should a solutions architect take to ensure production traffic and development
traffic are completely isolated?
(A). Modify the security groups assigned to development EC2 instances to block traffic from
production EC2 instances. Modify the security groups assigned to production EC2 instances to block
traffic from development EC2 instances.
(B). Create a tag on each VPC attachment with a value of either production or development,
according to the type of account being attached. Using the Network Manager feature of AWS Transit
Gateway, create policies that restrict traffic between VPCs based on the value of this tag.
(C). Create separate route tables for production and development traffic. Delete each account's
association and route propagation to the default AWS Transit Gateway route table. Attach
development VPCs to the development AWS Transit Gateway route table and production VPCs to the
production route table, and enable automatic route propagation on each attachment.
(D). Create a tag on each VPC attachment with a value of either production or development,
according to the type of account being attached. Modify the AWS Transit Gateway routing table to
route production tagged attachments to one another and development tagged attachments to one
another.
한 회사는 AWS 조직을 통해 생성된 조직의 일원으로 여러 AWS 계정을 보유하고 있습니다. 각 계정에는 us-east-2 리전에 VPC가 있으며 프로덕션 또는 개발 워크로드에 사용됩니다. 프로덕션 계정 전체의 Amazon EC2 인스턴스는 서로 통신해야 하며 개발 계정 전체의 EC2 인스턴스는 서로 통신해야 하지만 프로덕션 인스턴스와 개발 인스턴스는 서로 통신할 수 없습니다. 연결을 용이하게 하기 위해 회사는 공통 네트워크 계정을 만들었습니다. 이 회사는 AWS Transit Gateway를 사용하여 네트워크 계정의 us-east-2 리전에 전송 게이트웨이를 생성하고 AWS 리소스 액세스 관리자를 사용하여 전체 조직과 전송 게이트웨이를 공유했습니다. 그런 다음 네트워크 관리자는 각 계정의 VPC를 전송 게이트웨이에 연결한 후 EC2 인스턴스가 계정 간에 통신할 수 있게 되었습니다. 그러나 생산 및 개발 계정도 서로 통신할 수 있었습니다.
프로덕션 트래픽과 개발 트래픽이 완전히 격리되도록 솔루션 설계자는 어떤 단계를 수행해야 합니까?
A. 개발 EC2 인스턴스에 할당된 보안 그룹을 수정하여 프로덕션 EC2 인스턴스의 트래픽을 차단합니다. 프로덕션 EC2 인스턴스에 할당된 보안 그룹을 수정하여 개발 EC2 인스턴스의 트래픽을 차단합니다.
B. 연결할 계정 유형에 따라 각 VPC 연결에서 프로덕션 또는 개발 중 하나의 값으로 태그를 생성합니다. AWS Transit Gateway의 네트워크 관리자 기능을 사용하여 이 태그의 값에 따라 VPC 간 트래픽을 제한하는 정책을 생성합니다.
C. 프로덕션 및 개발 트래픽에 대해 별도의 라우팅 테이블을 생성합니다. 각 계정의 연결 및 기본 AWS Transit Gateway 라우팅 테이블에 대한 경로 전파를 삭제합니다. 개발 VPC를 개발 AWS Transit Gateway 라우팅 테이블에 연결하고 프로덕션 VPC를 프로덕션 라우팅 테이블에 연결하고 각 연결에서 자동 경로 전파를 활성화합니다.
D. 연결할 계정 유형에 따라 각 VPC 연결에서 프로덕션 또는 개발 중 하나의 값으로 태그를 생성합니다. 프로덕션 태그가 지정된 첨부 파일을 서로 라우팅하고 개발 태그가 지정된 첨부 파일을 서로 라우팅하도록 AWS Transit Gateway 라우팅 테이블을 수정합니다.
Answer: C
NO.107 A company built an ecommerce website on AWS using a three-tier web architecture. The
application is Java-based and composed of an Amazon CloudFront distribution, an Apache web server
layer of Amazon EC2 instances in an Auto Scaling group, and a backend Amazon Aurora MySQL
database.
Last month, during a promotional sales event, users reported errors and timeouts while adding items
to their shopping carts. The operations team recovered the logs created by the web servers and
reviewed Aurora DB cluster performance metrics. Some of the web servers were terminated before
logs could be collected and the Aurora metrics were not sufficient for query performance analysis.
Which combination of steps must the solutions architect take to improve application performance
visibility during peak traffic events? (Select THREE.)
(A). Configure the Aurora MySQL DB cluster to publish slow query and error logs to Amazon
CloudWatch Logs.
(B). Implement the AWS X-Ray SDK to trace incoming HTTP requests on the EC2 instances and
implement tracing of SQL queries with the X-Ray SDK for Java.
(C). Configure the Aurora MySQL DB cluster to stream slow query and error logs to Amazon Kinesis.
(D). Install and configure an Amazon CloudWatch Logs agent on the EC2 instances to send the Apache
logs to CloudWatch Logs.
(E). Enable and configure AWS CloudTrail to collect and analyze application activity from Amazon EC2
and Aurora.
(F). Enable Aurora MySQL DB cluster performance benchmarking and publish the stream to AWS XRay.
한 회사가 3계층 웹 아키텍처를 사용하여 AWS에서 전자 상거래 웹 사이트를 구축했습니다. 이 애플리케이션은 자바 기반이며 Amazon CloudFront 배포, 오토 스케일링 그룹의 Amazon EC2 인스턴스로 구성된 Apache 웹 서버 레이어 및 백엔드 Amazon Aurora MySQL 데이터베이스로 구성됩니다. 지난달 프로모션 판매 이벤트 기간 동안 사용자는 장바구니에 품목을 추가하는 동안 오류와 시간 초과를 보고했습니다. 운영 팀은 웹 서버에서 생성된 로그를 복구하고 Aurora DB 클러스터 성능 지표를 검토했습니다. 로그를 수집하기 전에 일부 웹 서버가 종료되었으며 Aurora 메트릭이 쿼리 성능 분석에 충분하지 않았습니다.
트래픽이 폭주하는 상황에서 애플리케이션 성능 가시성을 개선하기 위해 솔루션 설계자가 수행해야 하는 단계는 무엇입니까?(세 개 선택)
A. 느린 쿼리 및 오류 로그를 Amazon CloudWatch 로그에 게시하도록 Aurora MySQL DB 클러스터를 구성합니다.
B. AWS X-Ray SDK를 구현하여 EC2 인스턴스에서 수신되는 HTTP 요청을 추적하고 자바용 X-Ray SDK를 사용하여 SQL 쿼리의 추적을 구현합니다.
C. 느린 쿼리 및 오류 로그를 Amazon Kinesis로 스트리밍하도록 Aurora MySQL DB 클러스터를 구성합니다.
D. EC2 인스턴스에 Amazon CloudWatch 로그 에이전트를 설치하고 구성하여 Apache 로그를 CloudWatch 로그로 전송합니다.
E. AWS CloudTrail을 활성화하고 구성하여 Amazon EC2 및 Aurora에서 애플리케이션 활동을 수집하고 분석합니다.
F. Aurora MySQL DB 클러스터 성능 벤치마킹을 활성화하고 스트림을 AWS XRay에 게시합니다.
Answer: A,B,D
NO.108 A solutions architect needs to advise a company on how to migrate its on-premises data
processing application to the AWS Cloud. Currently, users upload input files through a web portal.
The web server then stores the uploaded files on NAS and messages the processing server over a
message queue. Each media file can take up to 1 hour to process. The company has determined that
the number of media files awaiting processing is significantly higher during business hours, with the
number of files rapidly declining after business hours.
What is the MOST cost-effective migration recommendation?
(A). Create a queue using Amazon SQS. Configure the existing web server to publish to the new
queue.
When there are messages in the queue, invoke an AWS Lambda function to pull requests from the
queue and process the files. Store the processed files in an Amazon S3 bucket.
(B). Create a queue using Amazon MO. Configure the existing web server to publish to the new
queue.
When there are messages in the queue, create a new Amazon EC2 instance to pull requests from the
queue and process the files. Store the processed files in Amazon EFS. Shut down the EC2 instance
after the task is complete.
(C). Create a queue using Amazon MO. Configure the existing web server to publish to the new
queue.
When there are messages in the queue, invoke an AWS Lambda function to pull requests from the
queue and process the files. Store the processed files in Amazon EFS.
(D). Create a queue using Amazon SOS. Configure the existing web server to publish to the new
queue. Use Amazon EC2 instances in an EC2 Auto Scaling group to pull requests from the queue and
process the files. Scale the EC2 instances based on the SOS queue length. Store the processed files in
an Amazon S3 bucket.
솔루션 설계자는 회사에 온프레미스 데이터 처리 애플리케이션을 AWS 클라우드로 마이그레이션하는 방법에 대해 조언해야 합니다. 현재 사용자는 웹 포털을 통해 입력 파일을 업로드합니다. 그런 다음 웹 서버는 업로드된 파일을 NAS에 저장하고 메시지 큐를 통해 처리 서버에 메시지를 보냅니다. 각 미디어 파일을 처리하는 데 최대 1시간이 걸릴 수 있습니다. 이 회사는 업무 시간 중에 처리 대기 중인 미디어 파일의 수가 상당히 늘어나고 업무 시간이 지나면 파일 수가 급격히 감소한다고 판단했습니다.
가장 비용 효율적인 마이그레이션 권장 사항은 무엇입니까?
A. Amazon SQS를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. 대기열에 메시지가 있으면 AWS Lambda 함수를 호출하여 대기열에서 요청을 가져오고 파일을 처리합니다. 처리된 파일을 Amazon S3 버킷에 저장합니다.
B. Amazon MQ를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. 대기열에 메시지가 있으면 새 Amazon EC2 인스턴스를 생성하여 대기열에서 요청을 가져오고 파일을 처리합니다. 처리된 파일을 Amazon EFS에 저장합니다. 작업이 완료된 후 EC2 인스턴스를 종료합니다.
C. Amazon MQ를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다.대기열에 메시지가 있으면 AWS Lambda 함수를 호출하여 대기열에서 요청을 가져오고 파일을 처리합니다. 처리된 파일을 Amazon EFS에 저장합니다.
D. Amazon SQS를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. EC2 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 대기열에서 요청을 가져오고 파일을 처리합니다. SQS 대기열 길이에 따라 EC2 인스턴스를 조정합니다. 처리된 파일을 Amazon S3 버킷에 저장합니다.
Answer: D
NO.109 A company is running a serverless application that consists of several AWS Lambda
functions and Amazon DynamoDB tables. The company has created new functionality that requires
the Lambda functions to access an Amazon Neptune DB cluster The Neptune DB cluster is located in
three subnets in a VPC.
Which of the possible solutions will allow the Lambda functions to access the Neptune DB cluster and
DynamoDB tables? (Select TWO )
(A). Create three public subnets in the Neptune VPC and route traffic through an interne: gateway
Host the Lambda functions m the three new public subnets
(B). Create three private subnets in the Neptune VPC and route internet traffic through a NAT
gateway Host the Lambda functions In the three new private subnets.
(C). Host the Lambda functions outside the VPC. Update the Neptune security group to allow access
from the IP ranges of the Lambda functions.
(D). Host the Lambda functions outside the VPC. Create a VPC endpoint for the Neptune database,
and have the Lambda functions access Neptune over the VPC endpoint
(E). Create three private subnets in the Neptune VPC. Host the Lambda functions m the three new
isolated subnets. Create a VPC endpoint for DynamoDB. and route DynamoDB traffic to the VPC
endpoint
한 회사에서 여러 AWS Lambda 함수와 Amazon DynamoDB 테이블로 구성된 서버리스 애플리케이션을 실행하고 있습니다. 이 회사는 Lambda 함수가 Amazon Neptune DB 클러스터에 액세스해야 하는 새로운 기능을 만들었습니다. Neptune DB 클러스터는 VPC의 세 서브넷에 있습니다.
Lambda 함수가 Neptune DB 클러스터와 DynamoDB 테이블에 액세스할 수 있도록 허용하는 솔루션은 무엇입니까?(두 개 선택)
A. Neptune VPC에 3개의 퍼블릭 서브넷을 생성하고 인터넷 게이트웨이를 통해 트래픽을 라우팅합니다. 세 개의 새로운 퍼블릭 서브넷에서 Lambda 함수를 호스팅합니다.
B. Neptune VPC에 3개의 프라이빗 서브넷을 생성하고 NAT 게이트웨이를 통해 인터넷 트래픽을 라우팅합니다. 세 개의 새로운 프라이빗 서브넷에서 Lambda 함수를 호스팅합니다.
C. VPC 외부에서 Lambda 함수를 호스팅합니다. Lambda 함수의 IP 범위에서의 액세스를 허용하도록 Neptune 보안 그룹을 업데이트합니다.
D. VPC 외부에서 Lambda 함수를 호스팅합니다. Neptune 데이터베이스에 대한 VPC 엔드포인트를 생성하고 Lambda 함수가 VPC 엔드포인트를 통해 Neptune에 액세스하도록 합니다.
E. Neptune VPC에 프라이빗 서브넷을 세 개 생성합니다. Lambda 함수를 세 개의 새로운 격리된 서브넷으로 호스팅합니다. DynamoDB에 대한 VPC 엔드포인트를 생성하고 DynamoDB 트래픽을 VPC 엔드포인트로 라우팅합니다.
Answer: C B,E
NO.110 A startup company recently migrated a large ecommerce website to AWS. The website has
experienced a 70% increase in sales. Software engineers are using a private GitHub repository to
manage code. The DevOps learn is using Jenkins for builds and unit testing. The engineers need to
receive notifications for bad builds and zero downtime during deployments. The engineers also need
to ensure any changes to production are seamless for users and can be rolled back in the event of a
major issue.
The software engineers have decided to use AWS CodePipeline to manage their build and
deployment process.
Which solution will meet these requirements?
(A). Use GitHub websockets to trigger the CodePipeline pipeline. Use the Jenkins plugin for AWS
CodeBuild to conduct unit testing. Send alerts to an Amazon SNS topic for any bad builds. Deploy in
an in-place. all-at-once deployment configuration using AWS CodeDeploy.
(B). Use GitHub webhooks to trigger the CodePipeline pipeline. Use the Jenkins plugin for AWS
CodeBuild to conduct unit testing. Send alerts to an Amazon SNS topic for any bad builds. Deploy in a
blue/green deployment using AWS CodeDeploy.
(C). Use GitHub websockets to trigger the CodePipeline pipeline. Use AWS X-Ray for unit testing and
static code analysis. Send alerts to an Amazon SNS topic for any bad builds. Deploy in a blue/green
deployment using AWS CodeDeploy.
(D). Use GitHub webhooks to trigger the CodePipeline pipeline. Use AWS X-Ray for unit testing and
static code analysis. Send alerts to an Amazon SNS topic for any bad builds. Deploy in an in-place, allat-
once deployment configuration using AWS CodeDeploy.
한 스타트업 회사가 최근 대규모 전자 상거래 웹 사이트를 AWS로 마이그레이션했습니다.웹 사이트의 매출이 70% 증가했습니다. 소프트웨어 엔지니어는 비공개 GitHub 리포지토리를 사용하여 코드를 관리합니다. DevOps 학습은 빌드 및 단위 테스트에 Jenkins를 사용하는 것입니다. 엔지니어는 잘못된 빌드에 대한 알림을 받고 배포 중에 다운타임이 발생하지 않도록 해야 합니다. 또한 엔지니어는 프로덕션 변경 사항이 사용자에게 원활하고 중대한 문제가 발생할 경우 롤백할 수 있는지 확인해야 합니다.
소프트웨어 엔지니어는 AWS CodePipeline을 사용하여 빌드 및 배포 프로세스를 관리하기로 결정했습니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. GitHub 웹 소켓을 사용하여 CodePipeline 파이프라인을 트리거합니다. AWS 코드빌드용 Jenkins 플러그인을 사용하여 단위 테스트를 수행합니다. 잘못된 빌드가 있으면 Amazon SNS 주제에 알림을 보냅니다. AWS CodeDeploy를 사용하여 현재 위치에서 한꺼번에 배포 구성으로 배포합니다.
B. GitHub 웹후크를 사용하여 CodePipeline 파이프라인을 트리거합니다. AWS 코드빌드용 Jenkins 플러그인을 사용하여 단위 테스트를 수행합니다. 잘못된 빌드가 있으면 Amazon SNS 주제에 알림을 보냅니다. AWS CodeDeploy를 사용하여 블루/그린 배포로 배포합니다.
C. GitHub 웹 소켓을 사용하여 CodePipeline 파이프라인을 트리거합니다. 유닛 테스트 및 정적 코드 분석에 AWS X-Ray를 사용합니다. 잘못된 빌드가 있으면 Amazon SNS 주제에 알림을 보냅니다. AWS CodeDeploy를 사용하여 블루/그린 배포로 배포합니다.
D. GitHub 웹후크를 사용하여 CodePipeline 파이프라인을 트리거합니다. 유닛 테스트 및 정적 코드 분석에 AWS X-Ray를 사용합니다. 잘못된 빌드가 있으면 Amazon SNS 주제에 알림을 보냅니다. AWS CodeDeploy를 사용하여 현재 위치에서 한 번에 모두 배포 구성으로 배포합니다.
Answer: B
'Cloud > AWS SAP' 카테고리의 다른 글
SAP_C01 오답 수정 및 번역 No.121~No.130 (0) | 2022.07.08 |
---|---|
SAP_C01 오답 수정 및 번역 No.111~No.120 (0) | 2022.07.07 |
SAP_C01 오답 수정 및 번역 No.91~No.100 (0) | 2022.07.07 |
SAP_C01 오답 수정 및 번역 No.81~No.90 (0) | 2022.07.07 |
SAP_C01 오답 수정 및 번역 No.71~No.80 (0) | 2022.07.07 |