NO.91 A financial services company loaded millions of historical stock trades into an Amazon
DynamoDB table The table uses on-demand capacity mode Once each day at midnight, a few million
new records are loaded into the table Application read activity against the table happens in bursts
throughout the day, and a limited set of keys are repeatedly looked up. The company needs to
reduce costs associated with DynamoDB.
Which strategy should a solutions architect recommend to meet this requirement?
(A). Deploy an Amazon ElastiCache cluster in front of the DynamoDB table.
(B). Deploy DynamoDB Accelerator (DAX) Configure DynamoDB auto scaling Purchase Savings Plans in
Cost Explorer
(C). Use provisioned capacity mode Purchase Savings Plans in Cost Explorer
(D). Deploy DynamoDB Accelerator (DAX) Use provisioned capacity mode Configure DynamoDB auto
scaling

 

금융 서비스 회사는 수백만 건의 과거 주식 거래를 Amazon DynamoDB 테이블에 로드했습니다. 테이블은 온디맨드 용량 모드를 사용합니다. 매일 자정에 백만 개의 레코드가 테이블에 로드됩니다. 테이블에 대한 애플리케이션 읽기 작업은 하루 종일 버스트에서 발생하며 제한된 세트가 반복적으로 조회됩니다. 회사는 DynamoDB 관련된 비용을 줄여야 합니다.

요구 사항을 충족하기 위해 솔루션 설계자가 권장해야 하는 전략은 무엇입니까?

A. DynamoDB 테이블 앞에 Amazon ElastiCache 클러스터를 배포합니다.

B. DynamoDB Accelerator (DAX) 배포합니다. 비용 탐색기에서 DynamoDB 자동 조정 구매 절감 플랜을 구성합니다.

C. 프로비전된 용량 모드 사용 비용 탐색기에서 저축 계획 구매.

D. DynamoDB Accelerator (DAX) 배포합니다. 프로비저닝된 용량 모드 사용 DynamoDB 자동 확장을 구성합니다.


Answer: D


NO.92 A company maintains a restaurant review website. The website is a single-page application
where files are stored in Amazon S3 and delivered using Amazon CloudFront. The company receives
several fake postings every day that are manually removed.
The security team has identified that most of the fake posts are from bots with IP addresses that
have a bad reputation within the same global region. The team needs to create a solution to help
restrict the bots from accessing the website.
Which strategy should a solutions architect use?
(A). Use AWS Firewall Manager to control the CloudFront distribution security settings. Create a
geographical block rule and associate it with Firewall Manager.
(B). Associate an AWS WAF web ACL with the CloudFront distribution. Select the managed Amazon IP
reputation rule group for the web ACL with a deny action.
(C). Use AWS Firewall Manager to control the CloudFront distribution security settings. Select the
managed Amazon IP reputation rule group and associate it with Firewall Manager with a deny action.
(D). Associate an AWS WAF web ACL with the CloudFront distribution. Create a rule group for the
web ACL with a geographical match statement with a deny action.

 

회사에서 레스토랑 리뷰 웹 사이트를 유지 관리합니다. 이 웹 사이트는 파일이 Amazon S3에 저장되고 Amazon CloudFront를 사용하여 전송되는 단일 페이지 애플리케이션입니다. 회사는 매일 수동으로 제거되는 여러 개의 가짜 게시물을 수신합니다. 보안 팀은 대부분의 가짜 게시물이 동일한 글로벌 지역 내에서 평판이 좋지 않은 IP 주소를 가진 봇의 게시물임을 확인했습니다. 팀은 봇이 웹 사이트에 액세스하지 못하도록 제한하는 솔루션을 만들어야 합니다.

솔루션 설계자는 어떤 전략을 사용해야 합니까?

A. AWS 방화벽 관리자를 사용하여 CloudFront 배포 보안 설정을 제어합니다. 지리적 차단 규칙을 만들어 방화벽 관리자와 연결합니다.

B. AWS WAF ACLCloudFront 배포와 연결합니다. 거부 작업이 있는 웹 ACL에 대한 관리형 Amazon IP 평판 규칙 그룹을 선택합니다.

C. AWS 방화벽 관리자를 사용하여 CloudFront 배포 보안 설정을 제어합니다. 관리형 Amazon IP 평판 규칙 그룹을 선택하고 거부 작업을 통해 방화벽 관리자와 연결합니다.

D. AWS WAF ACLCloudFront 배포와 연결합니다. 거부 작업이 있는 지리적 일치 문을 사용하여 웹 ACL에 대한 규칙 그룹을 만듭니다.


Answer: B


NO.93 A company has developed a new release of a popular video game and wants to make it
available for public download. The new release package is approximately 5 GB in size. The company
provides downloads for existing releases from a Linux-based, publicly facing FTP site hosted in an onpremises
data center. The company expects the new release will be downloaded by users worldwide
The company wants a solution that provides improved download performance and low transfer
costs, regardless of a user's location.
Which solutions will meet these requirements?
(A). Store the game files on Amazon EBS volumes mounted on Amazon EC2 instances within an Auto
Scaling group Configure an FTP service on the EC2 instances Use an Application Load Balancer in front
of the Auto Scaling group. Publish the game download URL for users to download the package.
(B). Store the game files on Amazon EFS volumes that are attached to Amazon EC2 instances within
an Auto Scaling group Configure an FTP service on each of the EC2 instances Use an Application Load
Balancer in front of the Auto Scaling group Publish the game download URL for users to download
the package
(C). Configure Amazon Route 53 and an Amazon S3 bucket for website hosting Upload the game files
to the S3 bucket Use Amazon CloudFront for the website Publish the game download URL for users to
download the package.
(D). Configure Amazon Route 53 and an Amazon S3 bucket for website hosting Upload the game files
to the S3 bucket Set Requester Pays for the S3 bucket Publish the game download URL for users to
download the package

 

한 회사에서 인기있는 비디오 게임의 새 릴리스를 개발하여 공개적으로 다운로드 할 수 있도록하려고합니다. 새 릴리스 패키지의 크기는 약 5GB입니다. 이 회사는 온프레미스 데이터 센터에서 호스팅되는 Linux 기반의 공개 FTP 사이트에서 기존 릴리스에 대한 다운로드를 제공합니다. 이 회사는 전 세계 사용자가 새 릴리스를 다운로드 할 것으로 예상합니다. 이 회사는 사용자의 위치에 관계없이 향상된 다운로드 성능과 낮은 전송 비용을 제공하는 솔루션을 원합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. Auto Scaling 그룹 내의 Amazon EC2 인스턴스에 마운트된 Amazon EBS 볼륨에 게임 파일을 저장합니다.EC2 인스턴스에서 FTP 서비스를 구성합니다. Auto Scaling 그룹 앞에 애플리케이션 로드 밸런서를 사용합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.

B. Auto Scaling 그룹 내의 Amazon EC2 인스턴스에 연결된 Amazon EFS 볼륨에 게임 파일을 저장합니다. EC2 인스턴스에서 FTP 서비스를 구성합니다.Auto Scaling 그룹 앞에 애플리케이션 로드 밸런서를 사용합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.

C. 웹 사이트 호스팅용 Amazon Route 53 Amazon S3 버킷을 구성합니다. 게임 파일을 S3 버킷에 업로드합니다.웹 사이트에 Amazon CloudFront를 사용합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.

D. 웹 사이트 호스팅용 Amazon Route 53 Amazon S3 버킷을 구성합니다. 게임 파일을 S3 버킷에 업로드합니다.S3 버킷에 대해 요청자 지불을 설정합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.


Answer: C


NO.94 A company standardized its method of deploying applications to AWS using AWS
CodePipeline and AWS Cloud Formation. The applications are in Typescript and Python. The company
has recently acquired another business that deploys applications to AWS using Python scripts.
Developers from the newly acquired company are hesitant to move their applications under
CloudFormation because it would require than they learn a new domain-specific language and
eliminate their access to language features, such as looping.
How can the acquired applications quickly be brought up to deployment standards while addressing
the developers' concerns?
(A). Create CloudFormation templates and re-use parts of the Python scripts as instance user data.
Use the AWS Cloud Development Kit (AWS CDK) to deploy the application using these templates.
Incorporate the AWS CDK into CodePipeline and deploy the application to AWS using these
templates.
(B). Use a third-party resource provisioning engine inside AWS CodeBuild to standardize the
deployment processes of the existing and acquired company. Orchestrate the CodeBuild job using
CodePipeline.
(C). Standardize on AWS OpsWorks. Integrate OpsWorks with CodePipeline. Have the developers
create Chef recipes to deploy their applications on AWS.
(D). Define the AWS resources using Typescript or Python. Use the AWS Cloud Development Kit (AWS
CDK) to create CloudFormation templates from the developers' code, and use the AWS CDK to create
CloudFormation stacks. Incorporate the AWS CDK as a CodeBuild job in CodePipeline.

 

한 회사가 AWS CodePipeline AWS CloudFormation을 사용하여 AWS에 애플리케이션을 배포하는 방법을 표준화했습니다. 응용 프로그램은 타이프 라이터와 파이썬에 있습니다. 이 회사는 최근 Python 스크립트를 사용하여 AWS에 애플리케이션을 배포하는 또 다른 비즈니스를 인수했습니다. 새로 인수한 회사의 개발자는 CloudFormation으로 애플리케이션을 이전하는 것을 주저합니다. 새로운 도메인별 언어를 배우고 루핑과 같은 언어 기능에 대한 액세스를 제거해야 하기 때문입니다. 개발자들의 우려 사항을 해결하면서 확보한 애플리케이션을 배포 표준에 신속하게 적용할 수 있는 방법은 무엇입니까?

A. CloudFormation 템플릿을 생성하고 Python 스크립트의 일부를 인스턴스 사용자 데이터로 재사용합니다. AWS Cloud Development Kit (AWS CDK) 를 사용하여 이러한 템플릿을 사용하여 애플리케이션을 배포합니다. AWS CDK CodePipeline에 통합하고 이러한 템플릿을 사용하여 애플리케이션을 AWS에 배포합니다.

B. AWS CodeBuild 내에서 타사 리소스 프로비저닝 엔진을 사용하여 기존 및 인수된 회사의 배포 프로세스를 표준화합니다. CodePipeline을 사용하여 코드빌드 작업을 오케스트레이션합니다.

C. AWS OpsWorks에서 표준화합니다. OpsWorksCodePipeline과 통합합니다. 개발자가 Chef 레시피를 생성하여 AWS에 애플리케이션을 배포하도록 합니다.

D. Typescript 또는 Python을 사용하여 AWS 리소스를 정의합니다. AWS Cloud Development Kit (AWS CDK) 를 사용하여 개발자 코드에서 CloudFormation 템플릿을 생성하고 AWS CDK를 사용하여 CloudFormation스택을 생성합니다. AWS CDKCodePipeline에서 코드빌드 작업으로 통합합니다.

 

Answer: D

NO.95 A company that designs multiplayer online games wants to expand its user base outside of
Europe. The company transfers a significant amount of UDP traffic to Keep all the live and interactive
sessions of the games The company has plans for rapid expansion and wants to build its architecture
to provide an optimized online experience to its users Which architecture will meet these
requirements with the LOWEST latency for users''
(A). Set up a Multi-AZ environment in a single AWS Region Use Amazon CloudFront to cache user
sessions
(B). Set up environments in multiple AWS Regions Create an accelerator in AWS Global Accelerator,
and add endpoints from different Regions to it
(C). Set up environments in multiple AWS Regions Use Amazon Route 53. and select latency-based
routing
(D). Set up a Multi-AZ environment in a single AWS Region. Use AWS Lambda@Edge to update
sessions closer to the users

 

멀티 플레이어 온라인 게임을 설계하는 회사는 유럽 이외의 지역으로 사용자 기반을 확장하려고합니다. 회사는 상당한 양의 UDP 트래픽을 게임의 모든 실시간 대화 세션을 유지하기 위해 전송합니다. 회사는 빠른 확장을 계획하고 있으며 사용자에게 최적화 온라인 경험을 제공하기 위해 아키텍처를 구축하고자합니다.

사용자의 지연 시간이 가장 낮은 이러한 요구 사항을 충족하는 아키텍처는 무엇입니까?

A. 단일 AWS 리전에 다중 AZ 환경을 설정합니다. Amazon CloudFront 사용하여 사용자 세션을 캐싱합니다.

B. 여러 AWS 리전에 환경 설정 AWS 글로벌 액셀러레이터에서 액셀러레이터를 생성하고 다른 리전의 엔드포인트를 여기에 추가합니다.

C. 여러 AWS 리전에 환경을 설정합니다. Amazon Route 5.3 사용하고 지연 시간 기반 라우팅을 선택합니다.

D. 단일 AWS 리전에 다중 AZ 환경을 설정합니다. AWS Lambda @Edge 사용하여 사용자에게 가까운 곳에서 세션을 업데이트합니다.


Answer: B


NO.96 A company is running a workload that consists of thousands of Amazon EC2 instances The
workload is running in a VPC that contains several public subnets and private subnets The public
subnets have a route for
0 0 0 0/0 to an existing internet gateway. The private subnets have a route for 0 0 0 0/0 to an existing
NAT gateway A solutions architect needs to migrate the entire fleet of EC2 instances to use IPv6 The
EC2 instances that are in private subnets must not be accessible from the public internet What
should the solutions architect do to meet these requirements?
(A). Update the existing VPC and associate a custom IPv6 CIDR block with the VPC and all subnets
Update all the VPC route tables and add a route for /0 to the internet gateway
(B). Update the existing VPC. and associate an Amazon-provided IPv6 CIDR block with the VPC and all
subnets Update the VPC route tables for all private subnets, and add a route for /0 to the NAT
gateway
(C). Update the existing VPC. and associate an Amazon-provided IPv6 CIDR block with the VPC and ail
subnets Create an egress-only internet gateway Update the VPC route tables for all private subnets,
and add a route for /0 to the egress-only internet gateway
(D). Update the existing VPC and associate a custom IPv6 CIDR block with the VPC and all subnets
Create a new NAT gateway, and enable IPv6 support Update the VPC route tables for all private
subnets and add a route for 70 to the IPv6-enabled NAT gateway.

 

한 회사에서 수천 개의 Amazon EC2 인스턴스로 구성된 워크로드를 실행하고 있습니다. 워크로드는 여러 퍼블릭 서브넷과 프라이빗 서브넷이 포함된 VPC에서 실행 중입니다. 퍼블릭 서브넷에는 기존 인터넷 게이트웨이에 대한 0.0.0.0/0의 경로가 있습니다. 프라이빗 서브넷에는 기존 NAT 게이트웨이에 대한 0.0.0.0/0의 경로가 있습니다. 솔루션 설계자는 IPv6을 사용하려면 전체 EC2 인스턴스 플릿을 마이그레이션해야 합니다. 프라이빗 서브넷에 있는 EC2 인스턴스는 퍼블릭 인터넷에서 액세스할 수 없어야 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?

A. 기존 VPC를 업데이트하고 사용자 지정 IPv6 CIDR 블록을 VPC 및 모든 서브넷에 연결합니다. 모든 VPC 라우팅 테이블을 업데이트하고: :/0에 대한 경로를 인터넷 게이트웨이에 추가합니다.

B. 기존 VPC를 업데이트하고 Amazon제공한 IPv6 CIDR 블록을 VPC 및 모든 서브넷에 연결합니다. 모든 프라이빗 서브넷에 대한 VPC 라우팅 테이블을 업데이트하고: :/0에 대한 경로를 NAT 게이트웨이에 추가합니다.

C. 기존 VPC를 업데이트하고 Amazon제공한 IPv6 CIDR 블록을 VPC 및 모든 서브넷에 연결합니다. 외부 전용 인터넷 게이트웨이를 만듭니다. 모든 프라이빗 서브넷의 VPC 라우팅 테이블을 업데이트하고: :/0에 대한 경로를 외부 전용 인터넷 게이트웨이에 추가합니다.

D. 기존 VPC를 업데이트하고 사용자 지정 IPv6 CIDR 블록을 VPC 및 모든 서브넷에 연결합니다. NAT 게이트웨이를 만들고 IPv6 지원을 사용하도록 설정합니다. 모든 프라이빗 서브넷에 대한 VPC 라우팅 테이블을 업데이트하고: :/0에 대한 경로를 IPv6 지원 NAT 게이트웨이에 추가합니다.

 

Answer: C

 

NO.97 A company wants to allow its marketing team to perform SQL queries on customer records to
identify market segments. The data is spread across hundreds of files. The records must be encrypted
in transit and at rest. The team manager must have the ability to manage users and groups but no
team members should have access to services or resources not required for the SQL queries
Additionally, administrators need to audit the queries made and receive notifications when a query
violates rules defined by the security team.
AWS Organizations has been used to create a new account and an AWS 1AM user with administrator
permissions for the team manager. Which design meets these requirements'?
(A). Apply a service control policy (SCP) that allows access to 1AM Amazon RDS. and AWS CloudTrail
Load customer records in Amazon RDS MySQL and train users to run queries using the AWS CLI.
Stream the query logs to Amazon CloudWatch Logs from the RDS database instance Use a
subscription filter with AWS Lambda functions to audit and alarm on queries against personal data
(B). Apply a service control policy (SCP) that denies access to all services except 1AM Amazon Athena
Amazon S3 and AWS CloudTrail Store customer record files in Amazon S3 and tram users to run
queries using the CLI via Athena Analyze CloudTrail events to audit and alarm on queries against
personal data
(C). Apply a service control policy (SCP) that denies access to all services except 1AM Amazon
DynamoDB. and AWS CloudTrail Store customer records in DynamoDB and train users to run queries
using the AWS CLI Enable DynamoDB streams to track the queries that are issued and use an AWS
Lambda function for real-time monitoring and alerting
(D). Apply a service control policy (SCP) that allows access to 1AM Amazon Athena; Amazon S3, and
AWS CloudTrail Store customer records as files in Amazon S3 and train users to leverage the Amazon
S3 Select feature and run queries using the AWS CLI Enable S3 object-level logging and analyze
CloudTrail events to audit and alarm on queries against personal data

 

한 회사에서 마케팅 팀이 고객 레코드에 대한 SQL 쿼리를 수행하여 시장 세그먼트를 식별할 수 있도록 허용하려고 합니다. 데이터는 수백 개의 파일에 분산되어 있습니다.기록은 전송 중 및 저장 중에 암호화되어야 합니다. 팀 관리자는 사용자 및 그룹을 관리할 수 있어야 하지만 SQL 쿼리에 필요하지 않은 서비스 또는 리소스에 대한 액세스 권한은 팀 구성원이 없어야 합니다. 또한 관리자는 쿼리를 감사하고 쿼리가 보안 팀에서 정의한 규칙을 위반할 경우 알림을 받아야 합니다. AWS 조직은 관리자가 있는 새 계정 및 AWS IAM 사용자를 생성하는 데 사용되었습니다.

팀 관리자의 권한입니다.

이러한 요구 사항을 충족하는 설계는 무엇입니까?

A. IAM, Amazon RDS AWS CloudTrail에 대한 액세스를 허용하는 SCP (서비스 제어 정책) 를 적용합니다. Amazon RDS MySQL에서 고객 레코드를 로드하고 AWS CLI를 사용하여 쿼리를 실행하도록 사용자를 교육합니다. RDS 데이터베이스 인스턴스에서 쿼리 로그를 Amazon CloudWatch 로그로 스트리밍합니다. AWS Lambda 함수와 함께 구독 필터를 사용하여 개인 데이터에 대한 쿼리를 감사하고 경보를 울립니다.

B. IAM, Amazon Athena, Amazon S3 AWS CloudTrail을 제외한 모든 서비스에 대한 액세스를 거부하는 SCP (서비스 제어 정책) 를 적용합니다. Amazon S3에 고객 레코드 파일을 저장하고 Athena를 통해 CLI를 사용하여 쿼리를 실행하도록 사용자를 교육합니다. CloudTrail 이벤트를 분석하여 개인 데이터에 대한 쿼리를 감사하고 경보를 보냅니다.

C. IAM, Amazon DynamoDB AWS CloudTrail을 제외한 모든 서비스에 대한 액세스를 거부하는 SCP (서비스 제어 정책) 를 적용합니다. DynamoDB에 고객 레코드를 저장하고 AWS CLI를 사용하여 쿼리를 실행하도록 사용자를 교육합니다. DynamoDB 스트림이 실행된 쿼리를 추적하고 실시간 모니터링 및 알림을 위해 AWS Lambda 함수를 사용하도록 설정합니다.

D. IAM, Amazon Athena, Amazon S3 AWS CloudTrail에 대한 액세스를 허용하는 SCP (서비스 제어 정책) 를 적용합니다. 고객 레코드를 Amazon S3에 파일로 저장하고 사용자에게 Amazon S3 선택 기능을 활용하고 AWS CLI를 사용하여 쿼리를 실행하도록 교육합니다. S3 객체 수준 로깅을 활성화하고 CloudTrail 이벤트를 분석하여 개인 데이터에 대한 쿼리를 감사하고 경보를 보냅니다.

 

Answer: B


NO.98 A large payroll company recently merged with a small staffing company. The unified company
now has multiple business units, each with its own existing AWS account.
A solutions architect must ensure that the company can centrally manage the billing and access
policies for all the AWS accounts. The solutions architect configures AWS Organizations by sending an
invitation to all member accounts of the company from a centralized management account.
What should the solutions architect do next to meet these requirements?
(A). Create the OrganizationAccountAccess 1AM group in each member account. Include the
necessary 1AM roles for each administrator.
(B). Create the OrganizationAccountAccessPolicy 1AM policy in each member account. Connect the
member accounts to the management account by using cross-account access.
(C). Create the OrganizationAccountAccessRole 1AM role in each member account. Grant permission
to the management account to assume the 1AM role.
(D). Create the OrganizationAccountAccessRole 1AM role in the management account Attach the
Administrator Access AWS managed policy to the 1AM role. Assign the 1AM role to the
administrators in each member account.

 

대규모 급여 회사가 최근 소규모 직원 배치 회사와 합병되었습니다. 이 통합 회사는 이제 여러 사업부를 보유하고 있으며 각 사업부에는 자체 기존 AWS 계정이 있습니다. 솔루션스 아키텍트는 회사가 모든 AWS 계정에 대한 결제 및 액세스 정책을 중앙에서 관리할 수 있도록 해야 합니다. 솔루션스 아키텍트는 중앙 집중식 관리 계정에서 회사의 모든 멤버 계정으로 초대를 보내 AWS Organizations를 구성합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 다음 작업을 수행해야 합니까?

A. 각 구성원 계정에 OrganizationAccountAccess IAM 그룹을 생성합니다. 각 관리자에게 필요한 IAM 역할을 포함합니다.

B. 각 구성원 계정에서 OrganizationAccountAccessPolicy IAM 정책을 생성합니다. 교차 계정 액세스를 사용하여 구성원 계정을 관리 계정에 연결합니다.

C. 각 구성원 계정에서 OrganizationAccountAccessRole IAM 역할을 생성합니다. IAM 역할을 맡을 수 있는 권한을 관리 계정에 부여합니다.

D. 관리 계정에서 OrganizationAccountAccessRole IAM 역할을 생성합니다. 관리자 액세스 AWS 관리형 정책을 IAM 역할에 연결합니다. 각 구성원 계정의 관리자에게 IAM 역할을 할당합니다.

 

Answer: C

 

NO.99 A company Is serving files to its customers through an SFTP server that Is accessible over the
internet The SFTP server Is running on a single Amazon EC2 instance with an Elastic IP address
attached Customers connect to the SFTP server through its Elastic IP address and use SSH for
authentication The EC2 instance also has an attached security group that allows access from all
customer IP addresses.
A solutions architect must implement a solution to improve availability minimize the complexity ot
infrastructure management and minimize the disruption to customers who access files. The solution
must not change the way customers connect.
Which solution will meet these requirements?
(A). Disassociate the Elastic IP address from me EC2 instance Create an Amazon S3 bucket to be used
for sftp file hosting Create an AWS Transfer Family server Configure the Transfer Family server with a
publicly accessible endpoint. Associate the SFTP Elastic IP address with the new endpoint. Point the
Transfer Family server to the S3 bucket Sync all files from the SFTP server to the S3 bucket.
(B). Disassociate the Elastic IP address from the EC2 instance. Create an Amazon S3 bucket to be used
for SFTP file hosting Create an AWS Transfer Family server. Configure the Transfer Family server with
a VPC-hosted. internet-facing endpoint. Associate the SFTP Elastic IP address with the new endpoint.
Attach the security group with customer IP addresses to the new endpoint. Point the Transfer Family
server to the S3 bucket. Sync all files from the SFTP server to The S3 bucket
(C). Disassociate the Elastic IP address from the EC2 instance. Create a new Amazon Elastic File
System (Amazon EFS) file system to be used for SFTP file hosting. Create an AWS Fargate task
definition to run an SFTP server. Specify the EFS file system as a mount in the task definition Create a
Fargate service by using the task definition, and place a Network Load Balancer (NLB> front of the
service When configuring the service, attach the security group with customer IP addresses to the
tasks that run the SFTP server Associate the Elastic IP address with the Nl B Sync all files from the
SFTP server to the S3 bucket
(D). Disassociate the Elastic IP address from the EC2 instance Create a multi-attach Amazon Elastic
Block Store (Amazon EBS) volume to be used to SFTP file hosting Create a Network Load Balancer
(NLB) with the Elastic IP address attached Create an Auto Scaling group with EC2 instances that run
an SFTP server Define in the Auto Scaling group that instances that are launched should attach the
new multi-attach EBS volume Configure the Auto Scaling group to automatically add instances behind
the NLB Configure the Auto Scaling group to use the security group that allows customer IP addresses
for the EC2 instances that the Auto Scaling group launches Sync all files from the SFTP server to the
new multi-attach EBS volume

 

회사에서 인터넷을 통해 액세스할 있는 SFTP 서버를 통해 고객에게 파일을 제공하고 있습니다. SFTP 서버는 탄력적 IP 주소가 연결된 단일 Amazon EC2 인스턴스에서 실행됩니다. 고객은 탄력적 IP 주소를 통해 SFTP 서버에 연결하고 인증에 SSH 사용합니다. 또한 EC2 인스턴스에는 모든 고객 IP 주소에서 액세스할 있는 연결된 보안 그룹이 있습니다. 솔루션 설계자는 가용성을 높이고 인프라 관리의 복잡성을 최소화하며 파일에 액세스하는 고객의 업무 중단을 최소화하는 솔루션을 구현해야 합니다. 솔루션이 고객 연결 방식을 바꿔서는 됩니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 Amazon S3 버킷을 생성합니다. AWS Transfer 패밀리 서버 생성 공개적으로 액세스 가능한 엔드포인트로 트랜스퍼 패밀리 서버 구성 SFTP 탄력적 IP 주소를 엔드포인트와 연결합니다. 트랜스퍼 패밀리 서버를 S3 버킷으로 지정합니다. SFTP 서버의 모든 파일을 S3 버킷으로 동기화합니다.

B. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 Amazon S3 버킷을 생성합니다. AWS 트랜스퍼 패밀리 서버를 생성합니다. VPC에서 호스팅하는 인터넷 연결 엔드포인트를 사용하여 트랜스퍼 패밀리 서버를 구성합니다. SFTP 탄력적 IP 주소를 엔드포인트와 연결합니다. 고객 IP 주소가 있는 보안 그룹을 엔드포인트에 연결합니다. 패밀리 전송 서버가 S3 버킷을 가리키도록 합니다. SFTP 서버의 모든 파일을 S3 버킷으로 동기화합니다.

C. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 Amazon Elastic File System (Amazon EFS) 파일 시스템을 생성합니다. AWS Fargate 작업 정의를 생성하여 SFTP 서버를 실행합니다. 작업 정의에서 EFS 파일 시스템을 마운트로 지정합니다. 작업 정의를 사용하여 Fargate 서비스를 만들고 서비스 앞에 NLB (네트워크 부하 분산 장치) 배치합니다. 서비스를 구성할 고객 IP 주소가 있는 보안 그룹을 SFTP 서버를 실행하는 작업에 연결합니다. 탄력적 IP 주소를 NLB 연결합니다.SFTP 서버의 모든 파일을 S3 버킷으로 동기화합니다.

D. EC2 인스턴스에서 탄력적 IP 주소의 연결을 해제합니다. SFTP 파일 호스팅에 사용할 다중 연결 Amazon Elastic Block Store (Amazon EBS) 볼륨을 생성합니다. 탄력적 IP 주소가 연결된 NLB (네트워크 로드 밸런서) 만듭니다. SFTP 서버를 실행하는 EC2 인스턴스로 Auto Scaling 그룹 생성 Auto Scaling 그룹에서 시작되는 인스턴스가 새로운 다중 연결 EBS 볼륨을 연결하도록 정의 NLB 뒤에 인스턴스를 자동으로 추가하도록 Auto Scaling 그룹을 구성합니다. Auto Scaling 그룹이 시작하는 EC2 인스턴스에 대한 고객 IP 주소를 허용하는 보안 그룹입니다. SFTP 서버의 모든 파일을 다중 연결 EBS 볼륨으로 동기화합니다.


Answer: A B

 

NO.100 A company has an internal application running on AWS that is used to track and process
shipments in the company's warehouse. Currently, after the system receives an order, it emails the
staff the information needed to ship a package. Once the package is shipped, the staff replies to the
email and the order is marked as shipped.
The company wants to stop using email in the application and move to a serverless application
model.
Which architecture solution meets these requirements?

 

(A). Use AWS Batch to configure the different tasks required lo ship a package. Have AWS Batch
trigger an AWS Lambda function that creates and prints a shipping label. Once that label is scanned.
as it leaves the warehouse, have another Lambda function move the process to the next step in the
AWS Batch job.B.
(B). When a new order is created, store the order information in Amazon SQS. Have AWS Lambda
check the queue every 5 minutes and process any needed work. When an order needs to be shipped,
have Lambda print the label in the warehouse. Once the label has been scanned, as it leaves the
warehouse, have an Amazon EC2 instance update Amazon SOS.
(C). Update the application to store new order information in Amazon DynamoDB. When a new order
is created, trigger an AWS Step Functions workflow, mark the orders as "in progress," and print a
package label to the warehouse. Once the label has been scanned and fulfilled, the application will
trigger an AWS Lambda function that will mark the order as shipped and complete the workflow.
(D). Store new order information in Amazon EFS. Have instances pull the new information from the
NFS and send that information to printers in the warehouse. Once the label has been scanned, as it
leaves the warehouse, have Amazon API Gateway call the instances to remove the order information
from Amazon EFS.

 

회사는 AWS에서 실행 중인 내부 애플리케이션을 보유하고 있으며, 이 애플리케이션은 회사 웨어하우스에서 배송을 추적하고 처리하는 데 사용됩니다. 현재 시스템은 주문을 받은 후 직원에게 패키지 배송에 필요한 정보를 이메일로 보냅니다. 패키지가 배송되면 직원이 이메일에 회신하고 주문이 배송됨으로 표시됩니다. 이 회사는 애플리케이션에서 이메일 사용을 중단하고 서버리스 애플리케이션 모델로 전환하려고 합니다.

이러한 요구 사항을 충족하는 아키텍처 솔루션은 무엇입니까?

A. AWS Batch를 사용하여 패키지를 배송하는 데 필요한 다양한 작업을 구성합니다. AWS Batch에서 배송 레이블을 생성하고 인쇄하는 AWS Lambda 함수를 트리거하도록 합니다. 레이블이 스캔되면 웨어하우스를 떠날 때 다른 Lambda 함수가 프로세스를 AWS Batch 작업의 다음 단계로 이동하게 합니다.

B. 새 주문이 생성되면 Amazon SQS에 주문 정보를 저장합니다. AWS Lambda 5분마다 대기열을 확인하고 필요한 작업을 처리하도록 합니다. 주문을 배송해야 하는 경우 Lambda가 웨어하우스에 라벨을 인쇄하도록 합니다. 라벨을 스캔한 후 웨어하우스를 떠날 때 Amazon EC2 인스턴스가 Amazon SQS를 업데이트하도록 합니다.

C. 애플리케이션을 업데이트하여 Amazon DynamoDB에 새 주문 정보를 저장합니다. 새 주문이 생성되면 AWS Step Functions 워크플로를 트리거하고 주문을진행 중”으로 표시한 다음 웨어하우스에 패키지 레이블을 인쇄합니다. 라벨이 스캔되고 이행되면 애플리케이션은 주문을 배송됨으로 표시하고 워크플로를 완료하는 AWS Lambda 함수를 트리거합니다.

D. Amazon EFS에 새 주문 정보를 저장합니다. 인스턴스가 NFS에서 새 정보를 가져와 해당 정보를 웨어하우스의 프린터로 보내도록 합니다. 라벨이 스캔되면 웨어하우스를 떠날 때 Amazon API Gateway가 인스턴스를 호출하여 Amazon EFS에서 주문 정보를 제거하도록 합니다.


Answer: C

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기