NO.21 A company wants to migrate its on-premises data center to the AWS Cloud This includes
thousands of virtualized Linux and Microsoft Windows servers SAN storage, Java and PHP
applications with MySQL, and Oracle databases. There are many dependent services hosted either in
the same data center or externally. The technical documentation is incomplete and outdated A
solutions architect needs to understand the current environment and estimate the cloud resource
costs after the migration Which tools or services should the solutions architect use to plan the cloud
migration? (Select THREE.)
(A). AWS Application Discovery Service
(B). AWS SMS
(C). AWS X-Ray
(D). AWS Cloud Adoption Readiness Tool (CART)
(E). Amazon Inspector
(F). AWS Migration Hub

 

한 회사가 온프레미스 데이터 센터를 AWS 클라우드로 마이그레이션하려고 합니다. 여기에는 수천 개의 가상화된 Linux Microsoft Windows 서버, SAN 스토리지, MySQL을 사용하는 Java PHP 애플리케이션, Oracle 데이터베이스가 포함됩니다. 동일한 데이터 센터 또는 외부에서 호스팅되는 많은 종속 서비스가 있습니다. 기술 문서가 불완전하고 오래되었습니다. 솔루션 설계자는 현재 환경을 이해하고 마이그레이션 후 클라우드 리소스 비용을 추정해야 합니다.

솔루션 설계자가 클라우드 마이그레이션을 계획하기 위해 사용해야 하는 도구 또는 서비스는 무엇입니까?(세 개 선택)

A. AWS Application Discovery Service

B. AWS SMS

C. AWS X-Ray

D. AWS Cloud Adoption Readiness Tool (CART)

E. Amazon Inspector

F. AWS Migration Hub


Answer: A,D,F

참조 :https://aws.amazon.com/application-discovery/

 

AWS Application Discovery Service - Amazon Web Services

AWS Professional Services와 APN 마이그레이션 파트너는 수많은 엔터프라이즈 고객이 클라우드로의 마이그레이션을 성공적으로 완료하도록 지원해왔습니다. 이러한 전문가는 Application Discovery Service 결

aws.amazon.com

https://cloudreadiness.amazonaws.com/#/cart

 

https://cloudreadiness.amazonaws.com/#/cart

 

cloudreadiness.amazonaws.com

https://aws.amazon.com/migration-hub/

 

AWS Migration Hub - Amazon Web Services

AWS Migration Hub는 클라우드 마이그레이션과 현대화를 위한 하나의 장소로서 AWS를 활용하는 과정을 단축하고 단순화하는 데 필요한 도구를 제공합니다. 여러분은 지금 조직 내에 클라우드를 만들

aws.amazon.com

 

NO.22 A solutions architect is migrating an existing workload to AWS Fargate. The task can only run
in a private subnet within the VPC where there is no direct connectivity from outside the system to
the application When the Fargate task is launched the task fails with the following error:

 

CannotPullContainerError: API failure (500): Obtain https://111122223333.dkr.ecr.us-east-IAMazonaws.com/v2/: net/http: net/http: request canceled while waiting for connection


How should the solutions architect correct this error?
(A). Ensure the task is set to ENABLED for the auto-assign public IP setting when launching the task
(B). Ensure the task is set to DISABLED (or the auto-assign public IP setting when launching the task
Configure a NAT gateway in the public subnet in the VPC to route requests to the internet
(C). Ensure the task is set to DISABLED for the auto-assign public IP setting when launching the task
Configure a NAT gateway in the private subnet in the VPC to route requests to the internet
(D). Ensure the network mode is set to bridge in the Fargate task definition

 

솔루션스 아키텍트가 AWS Fargate 워크로드 마이그레이션을 수행하고 있습니다. 작업은 외부에서 애플리케이션에 직접 연결되지 않은 VPC 내부의 프라이빗 서브넷에서만 실행할 있습니다.

Fargate 작업이 시작되면 다음 오류가 발생합니다.

 

CannotPullContainerError: API failure (500): Obtain https://111122223333.dkr.ecr.us-east-IAMazonaws.com/v2/: net/http: net/http: 연결이 설정되기 전에 요청이 중단됨.

 

상황을 바로 잡기 위해 솔루션 설계자는 무엇을 해야 합니까?

A. 작업을 시작할 공용 IP 자동 할당 설정에 대해 작업이 사용으로 설정되어 있는지 확인합니다.

B. 작업을 시작할 공용 IP 자동 할당 설정에 대해 작업이 사용 함으로 설정되어 있는지 확인합니다. 요청을 인터넷으로 라우팅하도록 VPC 퍼블릭 서브넷에 NAT 게이트웨이를 구성합니다.

C. 작업을 시작할 공용 IP 자동 할당 설정에 대해 작업이 사용 함으로 설정되어 있는지 확인합니다. 요청을 인터넷으로 라우팅하도록 VPC 프라이빗 서브넷에 NAT 게이트웨이를 구성합니다.

D. Fargate 작업 정의에서 네트워크 모드가 브리지로 설정되어 있는지 확인합니다.


Answer: B

참조 : https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_cannot_pull_image.html

 

CannotPullContainer task errors - Amazon Elastic Container Service

Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better.

docs.aws.amazon.com

 

NO.23 An e-commerce company is revamping its IT infrastructure and is planning to use AWS
services. The company's CIO has asked a solutions architect to design a simple, highly available, and
loosely coupled order processing application. The application is responsible (or receiving and
processing orders before storing them in an Amazon DynamoDB table. The application has a sporadic
traffic pattern and should be able to scale during markeling campaigns to process the orders with
minimal delays.
Which of the following is the MOST reliable approach to meet the requirements?
(A). Receive the orders in an Amazon EC2-hosted database and use EC2 instances to process them.
(B). Receive the orders in an Amazon SOS queue and trigger an AWS Lambda function lo process
them.
(C). Receive the orders using the AWS Step Functions program and trigger an Amazon ECS container
lo process them.
(D). Receive the orders in Amazon Kinesis Data Streams and use Amazon EC2 instances to process
them.

 

전자 상거래 비즈니스는 IT 인프라를 현대화하고 있으며 AWS 서비스를 사용할 계획입니다. 이 회사의 최고 정보 책임자 (CIO) 는 솔루션 설계자에게 단순하고 가용성이 높으며 느슨하게 연결된 주문 처리 애플리케이션을 설계하는 임무를 맡았습니다. 주문은 Amazon DynamoDB 데이터베이스에 저장되기 전에 애플리케이션에서 수신 및 처리됩니다. 애플리케이션은 간헐적으로 트래픽을 수신하며 주문을 신속하게 처리하기 위해 마케팅 캠페인 중에 증가할 수 있어야 합니다.

다음 중 요구 사항을 충족하는 데 가장 책임감 있는 방법은 무엇입니까?

A. Amazon EC2 호스팅 데이터베이스에서 주문을 받고 EC2 인스턴스를 사용하여 처리합니다.

B. Amazon SQS 대기열에서 주문을 수신하고 AWS Lambda 함수를 트리거하여 주문을 처리합니다.

C. AWS 스텝 함수 프로그램을 사용하여 주문을 수신하고 Amazon ECS 컨테이너를 트리거하여 주문을 처리합니다.

D. Amazon Kinesis 데이터 스트림에서 주문을 수신하고 Amazon EC2 인스턴스를 사용하여 주문을 처리합니다.

 

Answer: B

 

NO.24 A company is serving files to Its customers through an SFTP server that is accessible over the
internet The SFTP server is running on a single Amazon EC2 instance with an Elastic IP address
attached Customers connect to the SFTP server through its Elastic IP address and use SSH (or
authentication. The EC2 instance also has an attached security group that allows access from all
customer IP addresses.
A solutions architect must implement a solution to improve availability, minimize the complexity of
infrastructure management, and minimize the disruption to customers who access files The solution
must not change the way customers connect.
Which solution will meet these requirements?
(A). Disassociate the Elastic IP address from the EC2 instance. Create an Amazon S3 bucket to be used
for SFTP file hosting. Create an AWS Transfer Family server Configure the Transfer Family server with
a publicly accessible endpoint Associate the SFTP Elastic IP address with the new endpoint Point the
Transfer Family server to the S3 bucket. Sync all files from the SFTP server to the S3 bucket.
(B). Disassociate the Elastic IP address from the EC2 instance. Create an Amazon S3 bucket to be used
for SFTP file hosting. Create an AWS Transfer Family server. Configure the Transfer Family server with
a VPC-hosted. internet-facing endpoint. Associate the SFTP Elastic IP address with the new endpoint.
Attach the security group with customer IP addresses to the new endpoint. Point the Transfer Family
server to the S3 bucket Sync all files from the SFTP server to the S3 bucket.
(C). Disassociate the Elastic IP address from the EC2 instance. Create a new Amazon Elastic File
System
{Amazon EFS) file system to be used for SFTP file hosting. Create an AWS Fargate task definition to
run an SFTP server. Specify the EFS file system as a mount in the task definition. Create a Fargate
service by using the task definition, and place a Network Load Balancer (NLB) in front of the service
When configuring the service, attach the security group with customer IP addresses to the tasks that
run the SFTP server. Associate the Elastic IP address with the NLB. Sync all files from the SFTP server
to the S3 bucket.
(D). Disassociate the Elastic IP address from the EC2 instance. Create a multi-attach Amazon Elastic
Block Store (Amazon EBS) volume to be used for SFTP file hosting. Create a Network Load Balancer
(NLB) with the Elastic IP address attached. Create an Auto Scaling group with EC2 instances that run
an SFTP server Define in the Auto Scaling group that instances that are launched should attach the
new multi-attach EBS volume Configure the Auto Scaling group to automatically add instances behind
the NLB Configure the Auto Scaling group to use the security group that allows customer IP addresses
for the EC2 instances that the Auto Scaling group launches. Sync all files from the SFTP server to the
new multi-attach EBS volume.

 

회사에서 인터넷을 통해 액세스할 있는 SFTP 서버를 통해 고객에게 파일을 제공하고 있습니다. SFTP 서버는 탄력적 IP 주소가 연결된 단일 Amazon EC2 인스턴스에서 실행됩니다. 고객은 탄력적 IP 주소를 통해 SFTP 서버에 연결하고 인증에 SSH 사용합니다. 또한 EC2 인스턴스에는 모든 고객 IP 주소에서 액세스할 있는 연결된 보안 그룹이 있습니다. 솔루션 설계자는 가용성을 높이고 인프라 관리의 복잡성을 최소화하며 파일에 액세스하는 고객의 업무 중단을 최소화하는 솔루션을 구현해야 합니다. 솔루션이 고객 연결 방식을 바꿔서는 됩니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 Amazon S3 버킷을 생성합니다. AWS Transfer 패밀리 서버 생성 공개적으로 액세스 가능한 엔드포인트로 트랜스퍼 패밀리 서버 구성 SFTP 탄력적 IP 주소를 엔드포인트와 연결합니다. 트랜스퍼 패밀리 서버를 S3 버킷으로 지정합니다. SFTP 서버의 모든 파일을 S3 버킷으로 동기화합니다.

B. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 Amazon S3 버킷을 생성합니다. AWS 트랜스퍼 패밀리 서버를 생성합니다. VPC에서 호스팅하는 인터넷 연결 엔드포인트를 사용하여 트랜스퍼 패밀리 서버를 구성합니다. SFTP 탄력적 IP 주소를 엔드포인트와 연결합니다. 고객 IP 주소가 있는 보안 그룹을 엔드포인트에 연결합니다. 패밀리 전송 서버가 S3 버킷을 가리키도록 합니다. SFTP 서버의 모든 파일을 S3 버킷으로 동기화합니다.

C. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 Amazon Elastic File System (Amazon EFS) 파일 시스템을 생성합니다. AWS Fargate 작업 정의를 생성하여 SFTP 서버를 실행합니다. 작업 정의에서 EFS 파일 시스템을 마운트로 지정합니다. 작업 정의를 사용하여 Fargate 서비스를 만들고 서비스 앞에 NLB (네트워크 부하 분산 장치) 배치합니다. 서비스를 구성할 고객 IP 주소가 있는 보안 그룹을 SFTP 서버를 실행하는 작업에 연결합니다. 탄력적 IP 주소를 NLB 연결합니다.SFTP 서버의 모든 파일을 S3 버킷으로 동기화합니다.

D. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 다중 연결 Amazon Elastic Block Store (Amazon EBS) 볼륨을 생성합니다.탄력적 IP 주소가 연결된 NLB (네트워크 로드 밸런서) 만듭니다. SFTP 서버를 실행하는 EC2 인스턴스로 Auto Scaling 그룹 생성 Auto Scaling 그룹에서 시작되는 인스턴스가 새로운 다중 연결 EBS 볼륨을 연결하도록 정의 NLB 뒤에 인스턴스를 자동으로 추가하도록 Auto Scaling 그룹을 구성합니다. Auto Scaling 그룹이 시작하는 EC2 인스턴스에 대한 고객 IP 주소를 허용하는 보안 그룹입니다. SFTP 서버의 모든 파일을 다중 연결 EBS 볼륨으로 동기화합니다.


Answer: B

 

NO.25 A company is building an image service on the web that will allow users to upload and search
random photos.
At peak usage, up to 10.000 users worldwide will upload their images. The service will then overlay
text on the uploaded images, which will then be published on the company website.
Which design should a solutions architect implement?
(A). Store the uploaded images in Amazon Elastic File System (Amazon EFS). Send application log
information about each image to Amazon CloudWatch Logs. Create a fleet of Amazon EC2 instances
that use CloudWatch Logs to determine which images need to be processed. Place processed images
in anolher directory in Amazon EFS. Enable Amazon CloudFront and configure the origin to be the
one of the EC2 instances in the fleet.
(B). Store the uploaded images in an Amazon S3 bucket and configure an S3 bucket event notification
to send a message to Amazon Simple Notification Service (Amazon SNS). Create a fleet of Amazon
EC2 instances behind an Application Load Balancer (ALB) to pull messages from Amazon SNS to
process the images and place them in Amazon Elastic File System (Amazon EFS). Use Amazon
CloudWatch metrics for the SNS message volume to scale out EC2 instances. Enable Amazon
CloudFront and configure the origin lo be the ALB in front of the EC2 instances.
(C). Store the uploaded images in an Amazon S3 bucket and configure an S3 bucket event notification
to send a message to the Amazon Simple Queue Service (Amazon SOS) queue. Create a fleet of
Amazon EC2 instances to pull messages from Ihe SOS queue to process the images and place them in
another S3 bucket. Use Amazon CloudWatch metrics for queue depth to scale out EC2 instances.
Enable Amazon CloudFront and configure the origin to be the S3 bucket that contains the processed
images.
(D). Store the uploaded images on a shared Amazon Elastic Block Store (Amazon EBS) volume
mounted to a fleet of Amazon EC2 Spot instances. Create an Amazon DynamoDB table that contains
information about each uploaded image and whether it has been processed. Use an Amazon
EventBridge (Amazon CloudWatch Events) rule lo scale out EC2 instances. Enable Amazon CloudFront
and configure the origin to reference an Elastic Load Balancer in front of the fleet of EC2 instances.

 

회사가 웹에 사용자가 임의의 사진을 업로드하고 검색 수있는 이미지 서비스를 구축하고 있습니다. 사용량이 가장 많을 세계 최대 10.000 명의 사용자가 이미지를 업로드합니다. 그러면 서비스가 업로드된 이미지에 텍스트를 오버레이하고 회사 사이트에 게시됩니다.

솔루션 설계자는 어떤 설계를 구현해야 합니까?

A. 업로드된 이미지를 Amazon Elastic File System (Amazon EFS) 저장합니다. 이미지에 대한 애플리케이션 로그 정보를 Amazon CloudWatch 로그로 전송합니다. CloudWatch 로그를 사용하는 Amazon EC2 인스턴스 집합을 생성하여 어떤 이미지를 처리해야 하는지 결정합니다. 처리된 이미지를 Amazon EFS 다른 디렉터리에 배치합니다.Amazon CloudFront 활성화하고 오리진을 플릿의 EC2 인스턴스 하나가 되도록 구성합니다.

B. 업로드된 이미지를 Amazon S3 버킷에 저장하고 Amazon Simple Notification Service (Amazon SNS) 메시지를 전송하도록 S3 버킷 이벤트 알림을 구성합니다. 애플리케이션 로드 밸런서 (ALB) 뒤에 Amazon EC2 인스턴스 플릿을 생성하여 Amazon SNS에서 메시지를 가져와 이미지를 처리하고 Amazon Elastic File System (Amazon EFS) 배치합니다.SNS 메시지 볼륨에 대한 Amazon CloudWatch 지표를 사용하여 EC2 인스턴스를 확장할 있습니다. Amazon CloudFront 활성화하고 오리진 로그를 EC2 인스턴스 앞에 있는 ALB 구성합니다.

C. 업로드된 이미지를 Amazon S3 버킷에 저장하고 Amazon Simple Queue Service (Amazon SQS) 대기열로 메시지를 전송하도록 S3 버킷 이벤트 알림을 구성합니다. Amazon EC2 인스턴스 플릿을 생성하여 SQS 대기열에서 메시지를 가져와 이미지를 처리하고 다른 S3 버킷에 배치합니다. 대기열 깊이에 Amazon CloudWatch 지표를 사용하여 EC2 인스턴스를 확장할 있습니다. Amazon CloudFront 활성화하고 오리진을 처리된 이미지가 포함된 S3 버킷이 되도록 구성합니다.

D. 업로드된 이미지를 Amazon EC2 스팟 인스턴스 플릿에 마운트된 공유 Amazon Elastic Block Store (Amazon EBS) 볼륨에 저장합니다. 업로드된 이미지에 대한 정보와 이미지가 처리되었는지 여부를 포함하는 Amazon DynamoDB 테이블을 생성합니다. Amazon EventBridge (Amazon CloudWatch Events) 규칙을 사용하여 EC2 인스턴스를 스케일아웃합니다. Amazon CloudFront 활성화하고 오리진이 EC2 인스턴스 플릿 앞에 있는 탄력적 로드 밸런서를 참조하도록 구성합니다.

 

Answer: C

 

NO.26 A solutions architect is building a containerized NET Core application that will run in AWS
Fargate The backend of the application requires Microsoft SQL Server with high availability All tiers of
the application must be highly available. The credentials used for the connection string to SQL Server
should not be stored on disk within the .NET Core front-end containers Which strategies should the
solutions architect use to meet these requirements?
(A). Set up SQL Server to run in Fargate with Service Auto Scaling Create an Amazon ECS task
execution role that allows the Fargate task definition to get the secret value for the credentials to SQL
Server running in Fargate Specify the ARN of the secret in AWS Secrets Manager in the secrets section
of the Fargate task definition so the sensitive data can be injected into the containers as environment
variables on startup for reading into the application to construct the connection string Set up the NET
Core service using Service Auto Scaling behind an Application Load Balancer in multiple Availability
Zones
(B). Create a Multi-AZ deployment of SQL Server on Amazon RDS Create a secret in AWS Secrets
Manager for the credentials to the RDS database. Create an Amazon ECS task execution role that
allows the Fargate task definition to get the secret value for the credentials to the RDS database in
Secrets Manager. Specify the ARN of the secret in Secrets Manager in the secrets section of the
Fargate task definition so the sensitive data can be injected into the containers as environment
variables on startup for reading into the application to construct the connection string Set up the NET
Core service in Fargate using Service Auto Scaling behind an Application Load Balancer in multiple
Availability Zones.
(C). Create an Auto Scaling group to run SQL Server on Amazon EC2 Create a secret in AWS Secrets
Manager for the credentials to SQL Server running on EC2. Create an Amazon ECS task execution role
that allows the Fargate task definition to get the secret value for the credentials to SQL Server on
EC2.Specify the ARN of the secret in Secrets Manager in the secrets section of the Fargate task
definition so the sensitive data can be injected into the containers as environment variables on
startup for reading into the application to construct the connection string. Set up the NET Core
service using service Auto Scaling behind an Application Load Balancer in multiple Availability Zones.

 

한 솔루션스 아키텍트가 AWS Fargate에서 실행될 컨테이너화된 NET Core 애플리케이션을 구축하고 있습니다. 응용 프로그램의 백엔드를 사용하려면 가용성이 높은 Microsoft SQL Server가 필요합니다. 응용 프로그램의 모든 계층은 고가용성이어야 합니다. SQL Server에 대한 연결 문자열에 사용되는 자격 증명은.NET Core 프런트 엔드 컨테이너 내의 디스크에 저장하면 안 됩니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 전략을 사용해야 합니까?

A. 서비스 오토 스케일링을 사용하여 파게이트에서 실행되도록 SQL Server를 설정합니다. Fargate 작업 정의가 Fargate에서 실행 중인 SQL Server에 대한 자격 증명의 보안 값을 가져올 수 있도록 허용하는 Amazon ECS 작업 실행 역할을 생성합니다. AWS Secrets Manager에서 Fargate 작업 정의의 secrets 섹션에 있는 시크릿의 ARN을 지정합니다.  그러면 민감한 데이터가 시작 시 환경 변수로 컨테이너에 삽입되어 애플리케이션에서 읽어 연결 문자열을 구성할 수 있습니다. 여러 가용 영역에서 애플리케이션 로드 밸런서 뒤에 있는 서비스 Auto Scaling을 사용하여 .NET Core 서비스를 설정합니다.

B. Amazon RDS에서 SQL 서버의 다중 AZ 배포를 생성합니다. RDS 데이터베이스에 대한 자격 증명에 대한 보안 정보를 AWS 비밀 관리자에서 생성합니다. Fargate 작업 정의가 Secrets Manager RDS 데이터베이스에 대한 자격 증명의 보안 값을 가져올 수 있도록 허용하는 Amazon ECS 작업 실행 역할을 생성합니다. Secrets Manager에서 Fargate 작업 정의의 secrets 섹션에 있는 시크릿의 ARN을 지정하면 민감한 데이터가 시작 시 환경 변수로 컨테이너에 삽입되어 애플리케이션에 읽어 연결 문자열을 구성할 수 있습니다. 여러 가용 영역에서 애플리케이션 로드 밸런서 뒤에 있는 서비스 Auto Scaling을 사용하여 Fargate에서 .NET Core 서비스를 설정합니다.

C. 오토 스케일링 그룹을 생성하여 Amazon EC2에서 SQL Server를 실행합니다. AWS 시크릿 매니저에서 EC2에서 실행되는 SQL Server에 대한 자격 증명을 위한 시크릿을 생성합니다. Fargate 작업 정의가 자격 증명의 보안 값을 EC2에서 SQL Server로 가져올 수 있도록 허용하는 Amazon ECS 작업 실행 역할을 생성합니다. Secrets Manager에서 Fargate 작업 정의의 secrets 섹션에 있는 시크릿의 ARN을 지정하면 민감한 데이터가 시작 시 환경 변수로 컨테이너에 삽입되어 애플리케이션에 읽어 연결 문자열을 구성할 수 있습니다. 여러 가용 영역에서 애플리케이션 로드 밸런서 뒤에 있는 서비스 Auto Scaling을 사용하여 .NET Core 서비스를 설정합니다.

D. Amazon RDS에서 SQL 서버의 다중 AZ 배포를 생성합니다. RDS 데이터베이스에 대한 자격 증명에 대한 보안 정보를 AWS 비밀 관리자에서 생성합니다. Fargate 작업 정의에서.NET Core 컨테이너에 대한 비영구 빈 저장소를 만들어 중요한 정보를 저장합니다. Fargate 작업 정의가 Secrets Manager RDS 데이터베이스에 대한 자격 증명의 보안 값을 가져올 수 있도록 허용하는 Amazon ECS 작업 실행 역할을 생성합니다. Fargate 작업 정의의 secrets 섹션에 있는 Secrets Manager에서 시크릿의 ARN을 지정합니다. 그러면 시작 시 애플리케이션에서 읽어들여 연결 문자열을 구성하기 위해 중요한 데이터를 비영구 저장소에 쓸 수 있습니다. 여러 가용 영역에서 애플리케이션 로드 밸런서 뒤에 있는 서비스 Auto Scaling을 사용하여 .NET Core 서비스를 설정합니다.

 

Answer: B


NO.27 A company is storing data on premises on a Windows file server. The company produces 5 GB
of new data daily.
The company migrated part of its Windows-based workload to AWS and needs the data to be
available on a file system in the cloud. The company already has established an AWS Direct Connect
connection between the on-premises network and AWS.
Which data migration strategy should the company use?
(A). Use the file gateway option in AWS Storage Gateway to replace the existing Windows file server,
and point the existing file share to the new file gateway.
(B). Use AWS DataSync to schedule a daily task to replicate data between the on-premises Windows
file server and Amazon FSx.
(C). Use AWS Data Pipeline to schedule a daily task to replicate data between the on-premises
Windows file server and Amazon Elastic File System (Amazon EFS).
(D). Use AWS DataSync to schedule a daily task lo replicate data between the on-premises Windows
file server and Amazon Elastic File System (Amazon EFS),

 

한 회사에서 Windows 파일 서버의 온프레미스에 데이터를 저장하고 있습니다. 이 회사는 매일 5GB의 새로운 데이터를 생산합니다. 이 회사는 Windows 기반 워크로드의 일부를 AWS로 마이그레이션했으며 클라우드의 파일 시스템에서 데이터를 사용할 수 있어야 했습니다. 이 회사는 이미 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 구축했습니다.

회사에서 사용해야 하는 데이터 마이그레이션 전략은 무엇입니까?

A. AWS Storage Gateway의 파일 게이트웨이 옵션을 사용하여 기존 Windows 파일 서버를 교체하고 기존 파일 공유를 새 파일 게이트웨이로 지정합니다.

B. AWS DataSync를 사용하여 온프레미스 윈도우 파일 서버와 Amazon FSx 간에 데이터를 복제하는 일일 작업을 예약합니다.

C. AWS 데이터 파이프라인을 사용하여 온프레미스 Windows 파일 서버와 Amazon Elastic File System (Amazon EFS) 간에 데이터를 복제하는 일일 작업을 예약합니다.

D. AWS DataSync를 사용하여 온프레미스 Windows 파일 서버와 Amazon Elastic File System (Amazon EFS) 간에 데이터를 복제하는 일일 작업을 예약합니다.

 

Answer: B


NO.28 A company has created an OU in AWS Organizations for each of its engineering teams Each
OU owns multiple AWS accounts. The organization has hundreds of AWS accounts A solutions
architect must design a solution so that each OU can view a breakdown of usage costs across its AWS
accounts. Which solution meets these requirements?
(A). Create an AWS Cost and Usage Report (CUR) for each OU by using AWS Resource Access
Manager Allow each team to visualize the CUR through an Amazon QuickSight dashboard.
(B). Create an AWS Cost and Usage Report (CUR) from the AWS Organizations management accountAllow each team to visualize the CUR through an Amazon QuickSight dashboard
(C). Create an AWS Cost and Usage Report (CUR) in each AWS Organizations member account Allow
each team to visualize the CUR through an Amazon QuickSight dashboard.
(D). Create an AWS Cost and Usage Report (CUR) by using AWS Systems Manager Allow each team to
visualize the CUR through Systems Manager OpsCenter dashboards

 

회사가 엔지니어링 팀을 위해 AWS Organizations에서 OU 생성했습니다. OU 여러 AWS 계정을 소유합니다. 조직에는 수백 개의 AWS 계정이 있습니다. 솔루션 설계자는 OU AWS 계정 전체의 사용 비용 내역을 있도록 솔루션을 설계해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. AWS 리소스 액세스 관리자를 사용하여 OU 대한 AWS 비용 사용 보고서 (CUR) 생성합니다. 팀이 Amazon QuickSight 대시보드를 통해 CUR 시각화할 있도록 허용합니다.

B. AWS 조직 관리 계정에서 AWS 비용 사용 보고서 (CUR) 생성합니다. 팀이 Amazon QuickSight 대시보드를 통해 CUR 시각화할 있도록 허용합니다.

C. AWS 조직 멤버 계정에서 AWS 비용 사용 보고서 (CUR) 생성합니다. 팀이 Amazon QuickSight 대시보드를 통해 CUR 시각화할 있도록 허용합니다.

D. AWS 시스템 관리자를 사용하여 AWS 비용 사용 보고서 (CUR) 생성합니다. 팀이 시스템 관리자 OpsCenter 대시보드를 통해 CUR 시각화할 있습니다.


Answer: B


NO.29 A company has a web application that allows users to upload short videos. The videos are
stored on Amazon EBS volumes and analyzed by custom recognition software for categorization.
The website contains stat c content that has variable traffic with peaks in certain months. The
architecture consists of Amazon EC2 instances running in an Auto Scaling group for the web
application and EC2 instances running in an Auto Scaling group to process an Amazon SQS queue The
company wants to re-architect the application to reduce operational overhead using AWS managed
services where possible and remove dependencies on third-party software.
Which solution meets these requirements?
(A). Use Amazon ECS containers for the web application and Spot Instances for the Auto Scaling
group that processes the SQS queue. Replace the custom software with Amazon Recognition to
categorize the videos.
(B). Store the uploaded videos n Amazon EFS and mount the file system to the EC2 instances for Te
web application. Process the SOS queue with an AWS Lambda function that calls the Amazon
Rekognition API to categorize the videos.
(C). Host the web application in Amazon S3. Store the uploaded videos in Amazon S3. Use S3 event
notifications to publish events to the SQS queue Process the SQS queue with an AWS Lambda
function that calls the Amazon Rekognition API to categorize the videos.
(D). Use AWS Elastic Beanstalk to launch EC2 instances in an Auto Scaling group for the web
application and launch a worker environment to process the SQS queue Replace the custom software
with Amazon Rekognition to categorize the videos.

 

회사에는 사용자가 짧은 비디오를 업로드 할 수있는 웹 애플리케이션이 있습니다. 비디오는 Amazon EBS 볼륨에 저장되고 분류를 위해 사용자 지정 인식 소프트웨어로 분석됩니다. 웹 사이트에는 특정 달에 트래픽이 가장 많은 정적 콘텐츠가 포함되어 있습니다. 아키텍처는 웹 애플리케이션용 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스와 Amazon SQS 대기열을 처리하기 위해 Auto Scaling 그룹에서 실행되는 EC2 인스턴스로 구성됩니다. 이 회사는 가능한 경우 AWS 관리형 서비스를 사용하여 운영 오버헤드를 줄이고 타사 소프트웨어에 대한 종속성을 제거하도록 애플리케이션을 재설계하려고 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. 웹 애플리케이션에는 Amazon ECS 컨테이너를 사용하고 SQS 대기열을 처리하는 Auto Scaling 그룹에는 스팟 인스턴스를 사용합니다. 사용자 지정 소프트웨어를 Amazon 인식(Amazon Rekognition)으로 교체하여 비디오를 분류합니다.

B. 업로드된 비디오를 Amazon EFS에 저장하고 파일 시스템을 웹 애플리케이션용 EC2 인스턴스에 마운트합니다. 동영상을 분류하기 위해 Amazon Rekognition API를 호출하는 AWS Lambda 함수로 SQS 대기열을 처리합니다.

C. Amazon S3에서 웹 애플리케이션을 호스팅합니다. 업로드한 비디오를 Amazon S3에 저장합니다.S3 이벤트 알림을 사용하여 SQS 대기열에 이벤트 게시 비디오를 분류하기 위해 Amazon Rekognition API를 호출하는 AWS Lambda 함수로 SQS 대기열을 처리합니다.

D. AWS Elastic Beanstalk를 사용하여 웹 애플리케이션용 Auto Scaling 그룹에서 EC2 인스턴스를 시작하고 작업자 환경을 시작하여 SQS 대기열을 처리합니다. 사용자 지정 소프트웨어를 Amazon Rekognition으로 교체하여 비디오를 분류합니다.


Answer: D

참조 : https://aws.amazon.com/rekognition/

 

기계 학습 이미지 및 비디오 분석 - Amazon Rekognition - Amazon Web Services

검은색 프레임, 시작 또는 종료 크레딧, 슬레이트, 색상 막대, 샷과 같이 비디오에서 주요 세그먼트를 탐지합니다. 자세히 알아보기 »

aws.amazon.com

https://docs.aws.amazon.com/AmazonS3/latest/dev/NotificationHowTo.html

 

Amazon S3 Event Notifications - Amazon Simple Storage Service

If your notification writes to the same bucket that triggers the notification, it could cause an execution loop. For example, if the bucket triggers a Lambda function each time an object is uploaded, and the function uploads an object to the bucket, then t

docs.aws.amazon.com


NO.30 A greeting card company recently advertised that customers could send cards to their
favourite celebrities through the company's platform Since the advertisement was published, the
platform has received constant traffic from 10.000 unique users each second.
The platform runs on m5.xlarge Amazon EC2 instances behind an Application Load Balancer (ALB) The
instances run in an Auto Scaling group and use a custom AMI that is based on Amazon Linux. The
platform uses a highly available Amazon Aurora MySQL DB cluster that uses primary and reader
endpoints The platform also uses an Amazon ElastiCache for Redis cluster that uses its cluster
endpoint The platform generates a new process for each customer and holds open database
connections to MySQL for the duration of each customer's session However, resource usage for the
platform is low.
Many customers are reporting errors when they connect to the platform Logs show that connections
to the Aurora database are failing Amazon CloudWatch metrics show that the CPU load is tow across
the platform and that connections to the platform are successful through the ALB.
Which solution will remediate the errors MOST cost-effectively?
(A). Set up an Amazon CloudFront distribution Set the ALB as the origin Move all customer traffic to
the CloudFront distribution endpoint
(B). Use Amazon RDS Proxy Reconfigure the database connections to use the proxy
(C). Increase the number of reader nodes in the Aurora MySQL cluster
(D). Increase the number of nodes in the ElastiCache for Redis cluster

 

인사말 카드 회사는 최근 고객이 회사 플랫폼을 통해 좋아하는 유명인에게 카드를 보낼 있다고 광고했습니다. 광고가 게시 이후 플랫폼은 매초 10.000 명의 사용자로부터 지속적인 트래픽을 받았습니다. 플랫폼은 애플리케이션 로드 밸런서 (ALB) 뒤에 있는 m5.xlarge Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 Auto Scaling 그룹에서 실행되며 Amazon Linux 기반으로 하는 사용자 지정 AMI 사용합니다. 플랫폼은 기본 엔드포인트와 리더 엔드포인트를 사용하는 고가용성 Amazon Aurora MySQL DB 클러스터를 사용합니다. 또한 플랫폼은 클러스터 엔드포인트를 사용하는 Redis Amazon ElastiCache 클러스터를 사용합니다. 플랫폼은 고객에 대해 새로운 프로세스를 생성하고 고객의 세션 동안 MySQL 대한 열린 데이터베이스 연결을 유지합니다.  그러나 플랫폼의 리소스 사용량은 적습니다.많은 고객이 플랫폼에 연결할 오류를 보고합니다. 로그에 Aurora 데이터베이스에 대한 연결이 실패하고 있음을 있습니다. Amazon CloudWatch 측정치는 CPU 로드가 플랫폼 전체에서 견인되고 ALB 통해 플랫폼에 성공적으로 연결되었음을 보여줍니다.

오류를 가장 비용 효율적으로 해결할 있는 솔루션은 무엇입니까?

A. Amazon CloudFront 배포를 설정합니다. ALB 오리진으로 설정 모든 고객 트래픽을 CloudFront 배포 엔드포인트로 이동합니다.

B. Amazon RDS 프록시 사용 프록시를 사용하도록 데이터베이스 연결을 재구성합니다.

C. Aurora MySQL 클러스터의 리더 노드 수를 늘립니다.

D. Redis ElastiCache 클러스터의 노드 수를 늘립니다.


Answer: C

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기