NO.246
A company runs a web application on Amazon EC2 instances in multiple Availability Zones. The EC2 instances are in private subnets. A solutions architect implements an internet-facing Application Load Balancer (ALB) and specifies the EC2 instances as the target group. However, the internet traffic is not reaching the EC2 instances.
How should the solutions architect reconfigure the architecture to resolve this issue?
A. Replace the ALB with a Network Load Balancer. Configure a NAT gateway in a public subnet to allow internet traffic.
B. Move the EC2 instances to public subnets. Add a rule to the EC2 instances’ security groups to allow outbound traffic to 0.0.0.0/0.
C. Update the route tables for the EC2 instances’ subnets to send 0.0.0.0/0 traffic through the internet gateway route. Add a rule to the EC2 instances’ security groups to allow outbound traffic to 0.0.0.0/0.
D. Create public subnets in each Availability Zone. Associate the public subnets with the ALB. Update the route tables for the public subnets with a route to the private subnets.
회사는 여러 가용성 영역에서 Amazon EC2 인스턴스에서 웹 응용 프로그램을 실행합니다. EC2 인스턴스는 개인 서브넷에 있습니다. Solutions Architect는 인터넷을 향한 응용 프로그램로드 밸런서 (ALB)를 구현하고 EC2 인스턴스를 대상 그룹으로 지정합니다. 그러나 인터넷 트래픽이 EC2 인스턴스에 도달하지 않습니다.
솔루션 아키텍트는이 문제를 해결하기 위해 아키텍처를 어떻게 재구성해야합니까?
A. ALB를 네트워크로드 밸런서로 교체하십시오. 인터넷 트래픽을 허용하기 위해 공개 서브넷의 NAT 게이트웨이를 구성하십시오.
B. EC2 인스턴스를 공개 서브넷으로 옮깁니다. EC2 인스턴스 보안 그룹에 규칙을 추가하여 아웃 바운드 트래픽을 0.0.0.0/0으로 허용하십시오.
C. EC2 인스턴스 서브넷의 경로 테이블을 업데이트하여 인터넷 게이트웨이 경로를 통해 0.0.0.0/0 트래픽을 보냅니다. EC2 인스턴스 보안 그룹에 규칙을 추가하여 아웃 바운드 트래픽을 0.0.0.0/0으로 허용하십시오.
D. 각 가용성 영역에서 공개 서브넷을 만듭니다. 대중 서브넷을 Alb와 연관시킵니다. 개인 서브넷으로가는 경로로 공개 서브넷의 경로 테이블을 업데이트하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95003-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.247
A company has deployed a database in Amazon RDS for MySQL. Due to increased transactions, the database support team is reporting slow reads against the DB instance and recommends adding a read replica.
Which combination of actions should a solutions architect take before implementing this change? (Choose two.)
A. Enable binlog replication on the RDS primary node.
B. Choose a failover priority for the source DB instance.
C. Allow long-running transactions to complete on the source DB instance.
D. Create a global table and specify the AWS Regions where the table will be available.
E. Enable automatic backups on the source instance by setting the backup retention period to a value other than 0.
회사는 MySQL 용 Amazon RDS에 데이터베이스를 배포했습니다. 거래가 증가함에 따라 데이터베이스 지원 팀은 DB 인스턴스에 대해 느린 읽기를보고하고 읽기 복제본을 추가하는 것이 좋습니다.
이 변경을 구현하기 전에 솔루션 아키텍트가 어떤 조합을 취해야합니까? (2 개 선택.)
A. RDS 기본 노드에서 Binlog 복제를 활성화합니다.
B. 소스 DB 인스턴스의 장애 조치 우선 순위를 선택하십시오.
C. 소스 DB 인스턴스에서 장기 거래가 완료되도록합니다.
D. 글로벌 테이블을 만들고 테이블을 사용할 수있는 AWS 영역을 지정하십시오.
E. 백업 유지 기간을 0 이외의 값으로 설정하여 소스 인스턴스에서 자동 백업을 활성화합니다.
Answer: CE
Ref.
https://www.examtopics.com/discussions/amazon/view/95004-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.248
A company runs analytics software on Amazon EC2 instances. The software accepts job requests from users to process data that has been uploaded to Amazon S3. Users report that some submitted data is not being processed Amazon CloudWatch reveals that the EC2 instances have a consistent CPU utilization at or near 100%. The company wants to improve system performance and scale the system based on user load.
What should a solutions architect do to meet these requirements?
A. Create a copy of the instance. Place all instances behind an Application Load Balancer.
B. Create an S3 VPC endpoint for Amazon S3. Update the software to reference the endpoint.
C. Stop the EC2 instances. Modify the instance type to one with a more powerful CPU and more memory. Restart the instances.
D. Route incoming requests to Amazon Simple Queue Service (Amazon SQS). Configure an EC2 Auto Scaling group based on queue size. Update the software to read from the queue.
회사는 Amazon EC2 인스턴스에서 분석 소프트웨어를 실행합니다. 이 소프트웨어는 사용자에서 Amazon S3에 업로드 된 데이터에 대한 작업 요청을 허용합니다. 사용자는 일부 제출 된 데이터가 처리되지 않았다고 Amazon CloudWatch는 EC2 인스턴스가 100%또는 거의 거의 CPU 활용을 가지고 있음을 보여줍니다. 회사는 시스템 성능을 향상시키고 사용자로드를 기반으로 시스템을 확장하려고합니다.
이러한 요구 사항을 충족시키기 위해 솔루션 아키텍트는 무엇을해야합니까?
A. 인스턴스의 사본을 만듭니다. 응용 프로그램로드 밸런서 뒤에 모든 인스턴스를 배치하십시오.
B. Amazon S3의 S3 VPC 엔드 포인트를 만듭니다. 소프트웨어를 업데이트하여 엔드 포인트를 참조하십시오.
C. EC2 인스턴스를 중지하십시오. 더 강력한 CPU와 더 많은 메모리를 사용하여 인스턴스 유형을 하나로 수정하십시오. 인스턴스를 다시 시작하십시오.
D. Amazon Simple Queue Service (Amazon SQS)로의 요청을 경로. 큐 크기를 기반으로 EC2 자동 스케일링 그룹을 구성하십시오. 대기열에서 읽을 소프트웨어를 업데이트하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95329-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.249
A company is implementing a shared storage solution for a media application that is hosted in the AWS Cloud. The company needs the ability to use SMB clients to access data. The solution must be fully managed.
Which AWS solution meets these requirements?
A. Create an AWS Storage Gateway volume gateway. Create a file share that uses the required client protocol. Connect the application server to the file share.
B. Create an AWS Storage Gateway tape gateway. Configure tapes to use Amazon S3. Connect the application server to the tape gateway.
C. Create an Amazon EC2 Windows instance. Install and configure a Windows file share role on the instance. Connect the application server to the file share.
D. Create an Amazon FSx for Windows File Server file system. Attach the file system to the origin server. Connect the application server to the file system.
회사는 AWS Cloud에서 호스팅되는 미디어 애플리케이션을위한 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 SMB 클라이언트를 사용하여 데이터에 액세스 할 수있는 기능이 필요합니다. 솔루션은 완전히 관리해야합니다.
이러한 요구 사항을 충족하는 AWS 솔루션은 무엇입니까?
A. AWS 스토리지 게이트웨이 볼륨 게이트웨이를 만듭니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 응용 프로그램 서버를 파일 공유에 연결하십시오.
B. AWS 스토리지 게이트웨이 테이프 게이트웨이를 만듭니다. Amazon S3를 사용하도록 테이프를 구성하십시오. 애플리케이션 서버를 테이프 게이트웨이에 연결하십시오.
C. Amazon EC2 Windows 인스턴스를 만듭니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성하십시오. 응용 프로그램 서버를 파일 공유에 연결하십시오.
D. Windows 파일 서버 파일 시스템 용 Amazon FSX를 만듭니다. 파일 시스템을 Origin 서버에 첨부하십시오. 응용 프로그램 서버를 파일 시스템에 연결하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95006-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.250
A company’s security team requests that network traffic be captured in VPC Flow Logs. The logs will be frequently accessed for 90 days and then accessed intermittently.
What should a solutions architect do to meet these requirements when configuring the logs?
A. Use Amazon CloudWatch as the target. Set the CloudWatch log group with an expiration of 90 days
B. Use Amazon Kinesis as the target. Configure the Kinesis stream to always retain the logs for 90 days.
C. Use AWS CloudTrail as the target. Configure CloudTrail to save to an Amazon S3 bucket, and enable S3 Intelligent-Tiering.
D. Use Amazon S3 as the target. Enable an S3 Lifecycle policy to transition the logs to S3 Standard-Infrequent Access (S3 Standard-IA) after 90 days.
로그를 구성 할 때 이러한 요구 사항을 충족시키기 위해 솔루션 아키텍트가 무엇을해야합니까?
A. Amazon CloudWatch를 대상으로 사용하십시오. 90 일 만료 된 CloudWatch 로그 그룹 설정
B. Amazon Kinesis를 대상으로 사용하십시오. Kinesis 스트림을 구성하여 항상 90 일 동안 로그를 유지하십시오.
C. AWS CloudTrail을 대상으로 사용하십시오. CloudTrail을 구성하여 Amazon S3 버킷에 저장하고 S3 지능형 계층을 활성화하십시오.
D. Amazon S3를 대상으로 사용하십시오. S3 라이프 사이클 정책이 90 일 후에 로그를 S3 Standard Infrequent Access (S3 Standard-IA)로 전환 할 수 있도록합니다.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95007-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.251
An Amazon EC2 instance is located in a private subnet in a new VPC. This subnet does not have outbound internet access, but the EC2 instance needs the ability to download monthly security updates from an outside vendor.
What should a solutions architect do to meet these requirements?
A. Create an internet gateway, and attach it to the VPC. Configure the private subnet route table to use the internet gateway as the default route.
B. Create a NAT gateway, and place it in a public subnet. Configure the private subnet route table to use the NAT gateway as the default route.
C. Create a NAT instance, and place it in the same subnet where the EC2 instance is located. Configure the private subnet route table to use the NAT instance as the default route.
D. Create an internet gateway, and attach it to the VPC. Create a NAT instance, and place it in the same subnet where the EC2 instance is located. Configure the private subnet route table to use the internet gateway as the default route.
Amazon EC2 인스턴스는 새로운 VPC의 개인 서브넷에 있습니다. 이 서브넷에는 아웃 바운드 인터넷 액세스가 없지만 EC2 인스턴스에는 외부 공급 업체에서 월간 보안 업데이트를 다운로드 할 수있는 기능이 필요합니다.
이러한 요구 사항을 충족시키기 위해 솔루션 아키텍트는 무엇을해야합니까?
A. 인터넷 게이트웨이를 만들고 VPC에 연결하십시오. 개인 서브넷 루트 테이블을 구성하여 인터넷 게이트웨이를 기본 경로로 사용하십시오.
B. NAT 게이트웨이를 만들고 공용 서브넷에 배치하십시오. NAT 게이트웨이를 기본 경로로 사용하도록 개인 서브넷 루트 테이블을 구성하십시오.
C. NAT 인스턴스를 만들고 EC2 인스턴스가있는 동일한 서브넷에 배치하십시오. NAT 인스턴스를 기본 경로로 사용하도록 개인 서브넷 경로 테이블을 구성하십시오.
D. 인터넷 게이트웨이를 만들고 VPC에 연결하십시오. NAT 인스턴스를 만들고 EC2 인스턴스가있는 동일한 서브넷에 배치하십시오. 개인 서브넷 루트 테이블을 구성하여 인터넷 게이트웨이를 기본 경로로 사용하십시오.
Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95023-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.252
A solutions architect needs to design a system to store client case files. The files are core company assets and are important. The number of files will grow over time.
The files must be simultaneously accessible from multiple application servers that run on Amazon EC2 instances. The solution must have built-in redundancy.
Which solution meets these requirements?
A. Amazon Elastic File System (Amazon EFS)
B. Amazon Elastic Block Store (Amazon EBS)
C. Amazon S3 Glacier Deep Archive
D. AWS Backup
솔루션 아키텍트는 클라이언트 케이스 파일을 저장하기위한 시스템을 설계해야합니다. 파일은 핵심 회사 자산이며 중요합니다. 파일 수는 시간이 지남에 따라 증가합니다.
Amazon EC2 인스턴스에서 실행되는 여러 응용 프로그램 서버에서 파일을 동시에 액세스 할 수 있어야합니다. 솔루션에는 중복이 내장되어 있어야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 아마존 탄성 파일 시스템 (Amazon EFS)
B. Amazon Elastic Block Store (Amazon EBS)
C. Amazon S3 Glacier Deep Archive
D. AWS 백업
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95024-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.253
A solutions architect has created two IAM policies: Policy1 and Policy2. Both policies are attached to an IAM group.
A cloud engineer is added as an IAM user to the IAM group. Which action will the cloud engineer be able to perform?
A. Deleting IAM users
B. Deleting directories
C. Deleting Amazon EC2 instances
D. Deleting logs from Amazon CloudWatch Logs
솔루션 아키텍트는 두 가지 IAM 정책의 정책을 만들었습니다 : Policy1과 Policy2. 두 정책 모두 IAM 그룹에 첨부됩니다.
클라우드 엔지니어는 IAM 그룹에 IAM 사용자로 추가됩니다. 클라우드 엔지니어는 어떤 작업을 수행 할 수 있습니까?
A. IAM 사용자 삭제
B. 디렉토리 삭제
C. Amazon EC2 인스턴스 삭제
D. Amazon CloudWatch 로그에서 로그 삭제
Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95008-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.254
A company is reviewing a recent migration of a three-tier application to a VPC. The security team discovers that the principle of least privilege is not being applied to Amazon EC2 security group ingress and egress rules between the application tiers.
What should a solutions architect do to correct this issue?
A. Create security group rules using the instance ID as the source or destination.
B. Create security group rules using the security group ID as the source or destination.
C. Create security group rules using the VPC CIDR blocks as the source or destination.
D. Create security group rules using the subnet CIDR blocks as the source or destination.
회사는 최근 3 계층 응용 프로그램을 VPC로 이주하는 것을 검토하고 있습니다. 보안 팀은 최소한의 특권 원칙이 Amazon EC2 보안 그룹 Ingress 및 응용 프로그램 계층 간의 추출 규칙에 적용되지 않는다는 것을 발견합니다.
솔루션 아키텍트는이 문제를 해결하기 위해 무엇을해야합니까?
A. 인스턴스 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
B. 보안 그룹 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
C. VPC CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
D. 서브넷 CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95009-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.255
A company has an ecommerce checkout workflow that writes an order to a database and calls a service to process the payment. Users are experiencing timeouts during the checkout process. When users resubmit the checkout form, multiple unique orders are created for the same desired transaction.
How should a solutions architect refactor this workflow to prevent the creation of multiple orders?
A. Configure the web application to send an order message to Amazon Kinesis Data Firehose. Set the payment service to retrieve the message from Kinesis Data Firehose and process the order.
B. Create a rule in AWS CloudTrail to invoke an AWS Lambda function based on the logged application path request. Use Lambda to query the database, call the payment service, and pass in the order information.
C. Store the order in the database. Send a message that includes the order number to Amazon Simple Notification Service (Amazon SNS). Set the payment service to poll Amazon SNS, retrieve the message, and process the order.
D. Store the order in the database. Send a message that includes the order number to an Amazon Simple Queue Service (Amazon SQS) FIFO queue. Set the payment service to retrieve the message and process the order. Delete the message from the queue.
회사는 데이터베이스에 주문을 작성하고 지불을 처리하기 위해 서비스를 요청하는 전자 상거래 체크 아웃 워크 플로우를 보유하고 있습니다. 체크 아웃 과정에서 사용자는 타임 아웃을 경험하고 있습니다. 사용자가 체크 아웃 양식을 다시 제출하면 동일한 원하는 트랜잭션에 대해 여러 고유 주문이 생성됩니다.
Solutions Architect는 어떻게 여러 주문의 생성을 방지하기 위해이 워크 플로우를 리팩터해야합니까?
A. 웹 애플리케이션을 구성하여 Amazon Kinesis Data Firehose에 주문 메시지를 보냅니다. Kinesis Data Firehose에서 메시지를 검색하고 주문을 처리하려면 결제 서비스를 설정하십시오.
B. AWS CloudTrail에서 규칙을 작성하여 기록 된 응용 프로그램 경로 요청에 따라 AWS Lambda 함수를 호출합니다. Lambda를 사용하여 데이터베이스를 쿼리하고 결제 서비스를 호출 한 다음 주문 정보를 전달하십시오.
C. 데이터베이스에 주문을 저장하십시오. 주문 번호가 Amazon Simple Notification Service (Amazon SNS)에 포함되는 메시지를 보냅니다. 지불 서비스를 Amazon SNS 투표로 설정하고 메시지를 검색하고 주문을 처리하십시오.
D. 데이터베이스에 주문을 저장하십시오. Amazon Simple Queue Service (Amazon SQS) FIFO 대기열에 주문 번호가 포함 된 메시지를 보내십시오. 메시지를 검색하고 주문을 처리하도록 지불 서비스를 설정하십시오. 대기열에서 메시지를 삭제하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95026-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.256
A solutions architect is implementing a document review application using an Amazon S3 bucket for storage. The solution must prevent accidental deletion of the documents and ensure that all versions of the documents are available. Users must be able to download, modify, and upload documents.
Which combination of actions should be taken to meet these requirements? (Choose two.)
A. Enable a read-only bucket ACL.
B. Enable versioning on the bucket.
C. Attach an IAM policy to the bucket.
D. Enable MFA Delete on the bucket.
E. Encrypt the bucket using AWS KMS.
Solutions Architect는 스토리지 용 Amazon S3 버킷을 사용하여 문서 검토 응용 프로그램을 구현하고 있습니다. 솔루션은 우발적으로 문서를 삭제하지 않고 모든 버전의 문서를 사용할 수 있도록해야합니다. 사용자는 문서를 다운로드, 수정 및 업로드 할 수 있어야합니다.
이러한 요구 사항을 충족시키기 위해 어떤 조치를 취해야합니까? (2 개 선택.)
A. 읽기 전용 버킷 ACL을 활성화하십시오.
B. 버킷에서 버전을 활성화합니다.
C. IAM 정책을 버킷에 첨부하십시오.
D. 버킷에서 MFA 삭제를 활성화합니다.
E. AWS KMS를 사용하여 버킷을 암호화합니다.
Answer: BD
Ref.
https://www.examtopics.com/discussions/amazon/view/95460-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.257
A company is building a solution that will report Amazon EC2 Auto Scaling events across all the applications in an AWS account. The company needs to use a serverless solution to store the EC2 Auto Scaling status data in Amazon S3. The company then will use the data in Amazon S3 to provide near-real-time updates in a dashboard. The solution must not affect the speed of EC2 instance launches.
How should the company move the data to Amazon S3 to meet these requirements?
A. Use an Amazon CloudWatch metric stream to send the EC2 Auto Scaling status data to Amazon Kinesis Data Firehose. Store the data in Amazon S3.
B. Launch an Amazon EMR cluster to collect the EC2 Auto Scaling status data and send the data to Amazon Kinesis Data Firehose. Store the data in Amazon S3.
C. Create an Amazon EventBridge rule to invoke an AWS Lambda function on a schedule. Configure the Lambda function to send the EC2 Auto Scaling status data directly to Amazon S3.
D. Use a bootstrap script during the launch of an EC2 instance to install Amazon Kinesis Agent. Configure Kinesis Agent to collect the EC2 Auto Scaling status data and send the data to Amazon Kinesis Data Firehose. Store the data in Amazon S3.
회사는 AWS 계정의 모든 응용 프로그램에서 Amazon EC2 자동 스케일링 이벤트를보고하는 솔루션을 구축하고 있습니다. 회사는 서버리스 솔루션을 사용하여 EC2 자동 스케일링 상태 데이터를 Amazon S3에 저장해야합니다. 그런 다음 회사는 Amazon S3의 데이터를 사용하여 대시 보드에서 거의 실시간 업데이트를 제공합니다. 솔루션은 EC2 인스턴스 발사 속도에 영향을 미치지 않아야합니다.
회사는 이러한 요구 사항을 충족시키기 위해 어떻게 데이터를 Amazon S3로 이동해야합니까?
A. Amazon CloudWatch 메트릭 스트림을 사용하여 EC2 자동 스케일링 상태 데이터를 Amazon Kinesis Data Firehose로 보냅니다. Amazon S3에 데이터를 저장하십시오.
B. Amazon EMR 클러스터를 시작하여 EC2 자동 스케일링 상태 데이터를 수집하고 데이터를 Amazon Kinesis Data Firehose로 보냅니다. Amazon S3에 데이터를 저장하십시오.
C. 일정에 따라 AWS Lambda 기능을 호출하려면 Amazon EventBridge 규칙을 작성하십시오. EC2 자동 스케일링 상태 데이터를 Amazon S3로 직접 보내도록 Lambda 함수를 구성하십시오.
D. EC2 인스턴스를 시작하는 동안 부트 스트랩 스크립트를 사용하여 Amazon Kinesis 에이전트를 설치하십시오. Kinesis 에이전트를 구성하여 EC2 자동 스케일링 상태 데이터를 수집하고 데이터를 Amazon Kinesis Data Firehose로 보냅니다. Amazon S3에 데이터를 저장하십시오.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95027-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.258
A company has an application that places hundreds of .csv files into an Amazon S3 bucket every hour. The files are 1 GB in size. Each time a file is uploaded, the company needs to convert the file to Apache Parquet format and place the output file into an S3 bucket.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create an AWS Lambda function to download the .csv files, convert the files to Parquet format, and place the output files in an S3 bucket. Invoke the Lambda function for each S3 PUT event.
B. Create an Apache Spark job to read the .csv files, convert the files to Parquet format, and place the output files in an S3 bucket. Create an AWS Lambda function for each S3 PUT event to invoke the Spark job.
C. Create an AWS Glue table and an AWS Glue crawler for the S3 bucket where the application places the .csv files. Schedule an AWS Lambda function to periodically use Amazon Athena to query the AWS Glue table, convert the query results into Parquet format, and place the output files into an S3 bucket.
D. Create an AWS Glue extract, transform, and load (ETL) job to convert the .csv files to Parquet format and place the output files into an S3 bucket. Create an AWS Lambda function for each S3 PUT event to invoke the ETL job.
회사에는 수백 개의 .CSV 파일을 매시간 Amazon S3 버킷에 배치하는 응용 프로그램이 있습니다. 파일의 크기는 1GB입니다. 파일이 업로드 될 때마다 회사는 파일을 Apache Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치해야합니다.
최소 운영 오버 헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. .csv 파일을 다운로드하고 파일을 Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치하는 AWS Lambda 함수를 생성합니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 호출합니다.
B. Apache Spark 작업을 생성하여 .csv 파일을 읽고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 배치합니다. Spark 작업을 호출하기 위해 각 S3 PUT 이벤트에 대한 AWS Lambda 함수를 생성합니다.
C. 애플리케이션이 .csv 파일을 배치하는 S3 버킷에 대한 AWS Glue 테이블과 AWS Glue 크롤러를 생성합니다. Amazon Athena를 주기적으로 사용하여 AWS Glue 테이블을 쿼리하고, 쿼리 결과를 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 배치하도록 AWS Lambda 함수를 예약합니다.
D. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 .csv 파일을 Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치합니다. 각 S3 PUT 이벤트에 대한 AWS Lambda 함수를 생성하여 ETL 작업을 호출합니다.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95028-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.259
A company is implementing new data retention policies for all databases that run on Amazon RDS DB instances. The company must retain daily backups for a minimum period of 2 years. The backups must be consistent and restorable.
Which solution should a solutions architect recommend to meet these requirements?
A. Create a backup vault in AWS Backup to retain RDS backups. Create a new backup plan with a daily schedule and an expiration period of 2 years after creation. Assign the RDS DB instances to the backup plan.
B. Configure a backup window for the RDS DB instances for daily snapshots. Assign a snapshot retention policy of 2 years to each RDS DB instance. Use Amazon Data Lifecycle Manager (Amazon DLM) to schedule snapshot deletions.
C. Configure database transaction logs to be automatically backed up to Amazon CloudWatch Logs with an expiration period of 2 years.
D. Configure an AWS Database Migration Service (AWS DMS) replication task. Deploy a replication instance, and configure a change data capture (CDC) task to stream database changes to Amazon S3 as the target. Configure S3 Lifecycle policies to delete the snapshots after 2 years.
회사는 Amazon RDS DB 인스턴스에서 실행되는 모든 데이터베이스에 대한 새로운 데이터 보존 정책을 구현하고 있습니다. 회사는 최소 2 년 동안 매일 백업을 유지해야합니다. 백업은 일관되고 복원 가능해야합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하는 데 어떤 솔루션을 권장해야합니까?
A. RDS 백업을 유지하려면 AWS 백업에서 백업 금고를 작성하십시오. 일일 일정과 생성 후 2 년의 만료 기간이 포함 된 새로운 백업 계획을 작성하십시오. RDS DB 인스턴스를 백업 계획에 할당하십시오.
B. 일일 스냅 샷에 대한 RDS DB 인스턴스의 백업 창을 구성합니다. 각 RDS DB 인스턴스에 2 년의 스냅 샷 유지 정책을 할당하십시오. Amazon Data Lifecycle Manager (Amazon DLM)를 사용하여 스냅 샷 삭제를 예약하십시오.
C. 데이터베이스 트랜잭션 로그를 2 년의 만료 기간으로 Amazon CloudWatch 로그로 자동 백업하도록 구성하십시오.
D. AWS DMS (AWS DMS) 복제 작업을 구성합니다. 복제 인스턴스를 배포하고 CDC (Change Data Capture) 작업을 구성하여 데이터베이스 변경을 대상으로 스트리밍합니다. S3 라이프 사이클 정책을 구성하여 2 년 후 스냅 샷을 삭제하십시오.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95030-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.260
A company’s compliance team needs to move its file shares to AWS. The shares run on a Windows Server SMB file share. A self-managed on-premises Active Directory controls access to the files and folders.
The company wants to use Amazon FSx for Windows File Server as part of the solution. The company must ensure that the on-premises Active Directory groups restrict access to the FSx for Windows File Server SMB compliance shares, folders, and files after the move to AWS. The company has created an FSx for Windows File Server file system.
Which solution will meet these requirements?
A. Create an Active Directory Connector to connect to the Active Directory. Map the Active Directory groups to IAM groups to restrict access.
B. Assign a tag with a Restrict tag key and a Compliance tag value. Map the Active Directory groups to IAM groups to restrict access.
C. Create an IAM service-linked role that is linked directly to FSx for Windows File Server to restrict access.
D. Join the file system to the Active Directory to restrict access.
회사의 규정 준수 팀은 파일 공유를 AWS로 옮겨야합니다. 주식은 Windows Server SMB 파일 공유에서 실행됩니다. 자체 관리 온 프레미스 Active Directory는 파일 및 폴더에 대한 액세스를 제어합니다.
회사는 솔루션의 일부로 Windows 파일 서버 용 Amazon FSX를 사용하려고합니다. 회사는 온 프레미스 Active Directory 그룹이 AWS로 이동 한 후 Windows File Server SMB 준수 공유, 폴더 및 파일의 FSX에 대한 액세스를 제한하도록해야합니다. 회사는 Windows 파일 서버 파일 시스템 용 FSX를 만들었습니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Active Directory 커넥터를 작성하여 Active Directory에 연결하십시오. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한하십시오.
B. 제한 태그 키와 준수 태그 값으로 태그를 할당합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한하십시오.
C. 액세스를 제한하기 위해 Windows 파일 서버를 위해 FSX에 직접 연결된 IAM 서비스 연결 역할을 만듭니다.
D. 파일 시스템을 Active Directory에 가입하여 액세스를 제한하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95343-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.261
A company recently announced the deployment of its retail website to a global audience. The website runs on multiple Amazon EC2 instances behind an Elastic Load Balancer. The instances run in an Auto Scaling group across multiple Availability Zones.
The company wants to provide its customers with different versions of content based on the devices that the customers use to access the website.
Which combination of actions should a solutions architect take to meet these requirements? (Choose two.)
A. Configure Amazon CloudFront to cache multiple versions of the content.
B. Configure a host header in a Network Load Balancer to forward traffic to different instances.
C. Configure a Lambda@Edge function to send specific objects to users based on the User-Agent header.
D. Configure AWS Global Accelerator. Forward requests to a Network Load Balancer (NLB). Configure the NLB to set up host-based routing to different EC2 instances.
E. Configure AWS Global Accelerator. Forward requests to a Network Load Balancer (NLB). Configure the NLB to set up path-based routing to different EC2 instances.
한 회사는 최근 소매 웹 사이트를 전 세계 잠재 고객에게 배치했다고 발표했습니다. 웹 사이트는 탄성로드 밸런서 뒤에 여러 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 여러 가용성 영역에서 자동 스케일링 그룹에서 실행됩니다.
이 회사는 고객이 웹 사이트에 액세스하는 데 사용하는 장치를 기반으로 고객에게 다양한 버전의 컨텐츠를 제공하려고합니다.
솔루션 아키텍트가 이러한 요구 사항을 충족시키기 위해 어떤 조치를 취해야합니까? (2 개 선택.)
A. 여러 버전의 콘텐츠를 캐시하도록 Amazon CloudFront를 구성합니다.
B. 트래픽을 다른 인스턴스로 전달하도록 Network Load Balancer에서 호스트 헤더를 구성합니다.
C. User-Agent 헤더를 기반으로 사용자에게 특정 객체를 보내도록 Lambda@Edge 함수를 구성합니다 .
D. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)에 요청을 전달합니다. 다른 EC2 인스턴스에 대한 호스트 기반 라우팅을 설정하도록 NLB를 구성합니다.
E. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)에 요청을 전달합니다. 다른 EC2 인스턴스에 대한 경로 기반 라우팅을 설정하도록 NLB를 구성합니다.
Answer: AC
Ref.
https://www.examtopics.com/discussions/amazon/view/95011-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.262
A company plans to use Amazon ElastiCache for its multi-tier web application. A solutions architect creates a Cache VPC for the ElastiCache cluster and an App VPC for the application’s Amazon EC2 instances. Both VPCs are in the us-east-1 Region.
The solutions architect must implement a solution to provide the application’s EC2 instances with access to the ElastiCache cluster.
Which solution will meet these requirements MOST cost-effectively?
A. Create a peering connection between the VPCs. Add a route table entry for the peering connection in both VPCs. Configure an inbound rule for the ElastiCache cluster’s security group to allow inbound connection from the application’s security group.
B. Create a Transit VPC. Update the VPC route tables in the Cache VPC and the App VPC to route traffic through the Transit VPC. Configure an inbound rule for the ElastiCache cluster's security group to allow inbound connection from the application’s security group.
C. Create a peering connection between the VPCs. Add a route table entry for the peering connection in both VPCs. Configure an inbound rule for the peering connection’s security group to allow inbound connection from the application’s security group.
D. Create a Transit VPC. Update the VPC route tables in the Cache VPC and the App VPC to route traffic through the Transit VPC. Configure an inbound rule for the Transit VPC’s security group to allow inbound connection from the application’s security group.
회사는 멀티 계층 웹 응용 프로그램에 Amazon Elasticache를 사용할 계획입니다. Solutions Architect는 Elasticache Cluster 용 캐시 VPC와 응용 프로그램의 Amazon EC2 인스턴스 용 App VPC를 만듭니다. 두 VPC는 모두 US-East-1 지역에 있습니다.
솔루션 아키텍트는 애플리케이션의 EC2 인스턴스에 Elasticache 클러스터에 액세스 할 수있는 솔루션을 구현해야합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족 할 것인가?
A. VPC 사이에 피어링 연결을 만듭니다. 두 VPC에서 피어링 연결을 위해 경로 테이블 항목을 추가하십시오. Elasticache Cluster의 보안 그룹에 대한 인바운드 규칙을 구성하여 응용 프로그램의 보안 그룹에서 인바운드 연결을 허용합니다.
B. 대중 교통 VPC를 만듭니다. 캐시 VPC 및 APP VPC에서 VPC 경로 테이블을 업데이트하여 Transit VPC를 통해 트래픽을 라우팅하십시오. Elasticache Cluster의 보안 그룹에 대한 인바운드 규칙을 구성하여 응용 프로그램의 보안 그룹에서 인바운드 연결을 허용합니다.
C. VPC 사이에 피어링 연결을 만듭니다. 두 VPC에서 피어링 연결을 위해 경로 테이블 항목을 추가하십시오. Peering Connection의 보안 그룹에 대한 인바운드 규칙을 구성하여 응용 프로그램의 보안 그룹에서 인바운드 연결을 허용합니다.
D. 대중 교통 VPC를 만듭니다. 캐시 VPC 및 APP VPC에서 VPC 경로 테이블을 업데이트하여 Transit VPC를 통해 트래픽을 라우팅하십시오. Transit VPC의 보안 그룹에 대한 인바운드 규칙을 구성하여 응용 프로그램의 보안 그룹에서 인바운드 연결을 허용합니다.
Answer: A
Ref.
<a href="https://www.examtopics.com/discussions/amazon/view/95463-exam-aws-certified-solutions-architect-associate-saa-c03/" target="_bl
NO.263
A company is building an application that consists of several microservices. The company has decided to use container technologies to deploy its software on AWS. The company needs a solution that minimizes the amount of ongoing effort for maintenance and scaling. The company cannot manage additional infrastructure.
Which combination of actions should a solutions architect take to meet these requirements? (Choose two.)
A. Deploy an Amazon Elastic Container Service (Amazon ECS) cluster.
B. Deploy the Kubernetes control plane on Amazon EC2 instances that span multiple Availability Zones.
C. Deploy an Amazon Elastic Container Service (Amazon ECS) service with an Amazon EC2 launch type. Specify a desired task number level of greater than or equal to 2.
D. Deploy an Amazon Elastic Container Service (Amazon ECS) service with a Fargate launch type. Specify a desired task number level of greater than or equal to 2.
E. Deploy Kubernetes worker nodes on Amazon EC2 instances that span multiple Availability Zones. Create a deployment that specifies two or more replicas for each microservice.
회사는 여러 마이크로 서비스로 구성된 응용 프로그램을 구축하고 있습니다. 이 회사는 컨테이너 기술을 사용하여 소프트웨어를 AWS에 배포하기로 결정했습니다. 회사는 유지 보수 및 스케일링을위한 지속적인 노력을 최소화하는 솔루션이 필요합니다. 회사는 추가 인프라를 관리 할 수 없습니다.
솔루션 아키텍트가 이러한 요구 사항을 충족시키기 위해 어떤 조치를 취해야합니까? (2 개 선택.)
A. Amazon Elastic Container Service (Amazon ECS) 클러스터를 배포하십시오.
B. 여러 가용성 영역에 걸쳐있는 Amazon EC2 인스턴스에 Kubernetes 제어 평면을 배포하십시오.
C. Amazon EC2 런칭 유형으로 Amazon Elastic Container Service (Amazon ECS) 서비스를 배치합니다. 원하는 작업 번호 수준을 지정하십시오.
D. Fargate 런칭 유형으로 Amazon Elastic Container Service (Amazon ECS) 서비스를 배치하십시오. 원하는 작업 번호 수준을 지정하십시오.
E. 여러 가용성 영역에 걸친 Amazon EC2 인스턴스에 Kubernetes 작업자 노드를 배포합니다. 각 마이크로 서비스에 대해 둘 이상의 복제본을 지정하는 배포를 만듭니다.
Answer: AD
Ref.
https://www.examtopics.com/discussions/amazon/view/95012-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.264
A company has a web application hosted over 10 Amazon EC2 instances with traffic directed by Amazon Route 53. The company occasionally experiences a timeout error when attempting to browse the application. The networking team finds that some DNS queries return IP addresses of unhealthy instances, resulting in the timeout error.
What should a solutions architect implement to overcome these timeout errors?
A. Create a Route 53 simple routing policy record for each EC2 instance. Associate a health check with each record.
B. Create a Route 53 failover routing policy record for each EC2 instance. Associate a health check with each record.
C. Create an Amazon CloudFront distribution with EC2 instances as its origin. Associate a health check with the EC2 instances.
D. Create an Application Load Balancer (ALB) with a health check in front of the EC2 instances. Route to the ALB from Route 53.
회사에는 Amazon Route 53의 트래픽이있는 10 개의 Amazon EC2 인스턴스가있는 웹 응용 프로그램이 있습니다. 회사는 응용 프로그램을 탐색하려고 시도 할 때 때때로 타임 아웃 오류가 발생합니다. 네트워킹 팀은 일부 DNS가 건강에 해로운 인스턴스의 IP 주소를 반환하여 타임 아웃 오류가 발생한다는 것을 알게됩니다.
이러한 타임 아웃 오류를 극복하기 위해 솔루션 아키텍트는 무엇을 구현해야합니까?
A. 각 EC2 인스턴스에 대한 Route 53 간단한 라우팅 정책 레코드를 만듭니다. 건강 검사를 각 레코드와 연관시킵니다.
B. 각 EC2 인스턴스에 대한 Route 53 Failover 라우팅 정책 레코드를 만듭니다. 건강 검사를 각 레코드와 연관시킵니다.
C. EC2 인스턴스를 사용하여 Amazon Cloudfront 분포를 생성합니다. 건강 검사를 EC2 인스턴스와 연관시킵니다.
D. EC2 인스턴스 앞에 건강 검진이있는 응용 프로그램로드 밸런서 (ALB)를 만듭니다. Route 53에서 ALB 로의 경로.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95345-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.265
A solutions architect needs to design a highly available application consisting of web, application, and database tiers. HTTPS content delivery should be as close to the edge as possible, with the least delivery time.
Which solution meets these requirements and is MOST secure?
A. Configure a public Application Load Balancer (ALB) with multiple redundant Amazon EC2 instances in public subnets. Configure Amazon CloudFront to deliver HTTPS content using the public ALB as the origin.
B. Configure a public Application Load Balancer with multiple redundant Amazon EC2 instances in private subnets. Configure Amazon CloudFront to deliver HTTPS content using the EC2 instances as the origin.
C. Configure a public Application Load Balancer (ALB) with multiple redundant Amazon EC2 instances in private subnets. Configure Amazon CloudFront to deliver HTTPS content using the public ALB as the origin.
D. Configure a public Application Load Balancer with multiple redundant Amazon EC2 instances in public subnets. Configure Amazon CloudFront to deliver HTTPS content using the EC2 instances as the origin.
솔루션 아키텍트는 웹, 응용 프로그램 및 데이터베이스 계층으로 구성된 고도로 사용 가능한 응용 프로그램을 설계해야합니다. HTTPS 컨텐츠 전달은 최소한의 배송 시간과 함께 가능한 한 가장자리에 가깝습니다.
이러한 요구 사항을 충족하고 가장 안전한 솔루션은 무엇입니까?
A. 공개 서브넷에서 여러 중복 Amazon EC2 인스턴스를 사용하여 공개 애플리케이션로드 밸런서 (ALB)를 구성합니다. Amazon Cloudfront를 구성하여 공개 ALB를 원점으로 사용하여 HTTPS 컨텐츠를 제공하십시오.
B. 개인 서브넷에서 다중 중복 Amazon EC2 인스턴스가있는 공개 애플리케이션로드 밸런서를 구성하십시오. EC2 인스턴스를 원점으로 사용하여 HTTPS 컨텐츠를 제공하도록 Amazon CloudFront를 구성하십시오.
C. 개인 서브넷에서 여러 중복 Amazon EC2 인스턴스를 사용하여 공개 애플리케이션로드 밸런서 (ALB)를 구성합니다. Amazon Cloudfront를 구성하여 공개 ALB를 원점으로 사용하여 HTTPS 컨텐츠를 제공하십시오.
D. 공개 서브넷에서 다중 중복 Amazon EC2 인스턴스가있는 공개 애플리케이션로드 밸런서를 구성하십시오. EC2 인스턴스를 원점으로 사용하여 HTTPS 컨텐츠를 제공하도록 Amazon CloudFront를 구성하십시오.
Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95013-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.266
A company has a popular gaming platform running on AWS. The application is sensitive to latency because latency can impact the user experience and introduce unfair advantages to some players. The application is deployed in every AWS Region. It runs on Amazon EC2 instances that are part of Auto Scaling groups configured behind Application Load Balancers (ALBs). A solutions architect needs to implement a mechanism to monitor the health of the application and redirect traffic to healthy endpoints.
Which solution meets these requirements?
A. Configure an accelerator in AWS Global Accelerator. Add a listener for the port that the application listens on, and attach it to a Regional endpoint in each Region. Add the ALB as the endpoint.
B. Create an Amazon CloudFront distribution and specify the ALB as the origin server. Configure the cache behavior to use origin cache headers. Use AWS Lambda functions to optimize the traffic.
C. Create an Amazon CloudFront distribution and specify Amazon S3 as the origin server. Configure the cache behavior to use origin cache headers. Use AWS Lambda functions to optimize the traffic.
D. Configure an Amazon DynamoDB database to serve as the data store for the application. Create a DynamoDB Accelerator (DAX) cluster to act as the in-memory cache for DynamoDB hosting the application data.
회사는 AWS에서 실행되는 인기있는 게임 플랫폼을 보유하고 있습니다. 대기 시간은 사용자 경험에 영향을 미치고 일부 플레이어에게 부당한 이점을 도입 할 수 있기 때문에 응용 프로그램은 대기 시간에 민감합니다. 응용 프로그램은 모든 AWS 지역에 배포됩니다. ALBS (Application Load Balancers) 뒤에 구성된 자동 스케일링 그룹의 일부인 Amazon EC2 인스턴스에서 실행됩니다. 솔루션 아키텍트는 응용 프로그램의 건강을 모니터링하고 트래픽을 건강한 엔드 포인트로 리디렉션하는 메커니즘을 구현해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS Global Accelerator에서 가속기를 구성하십시오. 애플리케이션이 듣는 포트의 리스너를 추가하고 각 지역의 지역 종점에 연결하십시오. Alb를 엔드 포인트로 추가하십시오.
B. Amazon Cloudfront 배포판을 생성하고 Alb를 Origin 서버로 지정하십시오. 원점 캐시 헤더를 사용하도록 캐시 동작을 구성하십시오. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
C. Amazon Cloudfront 배포판을 생성하고 Amazon S3를 Origin 서버로 지정하십시오. 원점 캐시 헤더를 사용하도록 캐시 동작을 구성하십시오. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
D. Amazon DynamoDB 데이터베이스를 구성하여 응용 프로그램의 데이터 저장소 역할을합니다. DAX (DynamODB Accelerator) 클러스터를 작성하여 응용 프로그램 데이터를 호스팅하는 DynamODB의 메모리 캐시 역할을합니다.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95014-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.267
A company has one million users that use its mobile app. The company must analyze the data usage in near-real time. The company also must encrypt the data in near-real time and must store the data in a centralized location in Apache Parquet format for further processing.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create an Amazon Kinesis data stream to store the data in Amazon S3. Create an Amazon Kinesis Data Analytics application to analyze the data. Invoke an AWS Lambda function to send the data to the Kinesis Data Analytics application.
B. Create an Amazon Kinesis data stream to store the data in Amazon S3. Create an Amazon EMR cluster to analyze the data. Invoke an AWS Lambda function to send the data to the EMR cluster.
C. Create an Amazon Kinesis Data Firehose delivery stream to store the data in Amazon S3. Create an Amazon EMR cluster to analyze the data.
D. Create an Amazon Kinesis Data Firehose delivery stream to store the data in Amazon S3. Create an Amazon Kinesis Data Analytics application to analyze the data.
회사에는 모바일 앱을 사용하는 백만 명의 사용자가 있습니다. 회사는 거의 현실 시간에 데이터 사용량을 분석해야합니다. 회사는 또한 거의 실현 시간에 데이터를 암호화해야하며 추가 처리를 위해 데이터를 Apache Parquet 형식의 중앙 위치에 저장해야합니다.
최소 운영 오버 헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon S3에 데이터를 저장하기 위해 Amazon Kinesis 데이터 스트림을 만듭니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 응용 프로그램을 작성하십시오. AWS Lambda 기능을 호출하여 데이터를 Kinesis Data Analytics 응용 프로그램으로 보냅니다.
B. Amazon S3에 데이터를 저장하기 위해 Amazon Kinesis 데이터 스트림을 만듭니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 만듭니다. AWS Lambda 기능을 호출하여 데이터를 EMR 클러스터로 보냅니다.
C. Amazon S3에 데이터를 저장하기 위해 Amazon Kinesis Data Firehose 전달 스트림을 만듭니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 만듭니다.
D. Amazon S3에 데이터를 저장하기 위해 Amazon Kinesis Data Firehose Delivery 스트림을 만듭니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 응용 프로그램을 작성하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95347-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.268
A gaming company has a web application that displays scores. The application runs on Amazon EC2 instances behind an Application Load Balancer. The application stores data in an Amazon RDS for MySQL database. Users are starting to experience long delays and interruptions that are caused by database read performance. The company wants to improve the user experience while minimizing changes to the application’s architecture.
What should a solutions architect do to meet these requirements?
A. Use Amazon ElastiCache in front of the database.
B. Use RDS Proxy between the application and the database.
C. Migrate the application from EC2 instances to AWS Lambda.
D. Migrate the database from Amazon RDS for MySQL to Amazon DynamoDB.
게임 회사에는 점수를 표시하는 웹 응용 프로그램이 있습니다. 응용 프로그램은 응용 프로그램로드 밸런서 뒤에 Amazon EC2 인스턴스에서 실행됩니다. 응용 프로그램은 MySQL 데이터베이스 용 Amazon RDS에 데이터를 저장합니다. 사용자는 데이터베이스 읽기 성능으로 인해 오랜 지연과 중단을 경험하기 시작합니다. 회사는 사용자 경험을 향상시키고 응용 프로그램 아키텍처 변경을 최소화하려고합니다.
이러한 요구 사항을 충족시키기 위해 솔루션 아키텍트는 무엇을해야합니까?
A. 데이터베이스 앞에서 Amazon Elasticache를 사용하십시오.
B. 응용 프로그램과 데이터베이스 사이에 RDS 프록시를 사용합니다.
C. EC2 인스턴스에서 AWS Lambda로 응용 프로그램을 마이그레이션합니다.
D. MySQL의 Amazon RDS에서 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95016-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.269
An ecommerce company has noticed performance degradation of its Amazon RDS based web application. The performance degradation is attributed to an increase in the number of read-only SQL queries triggered by business analysts. A solutions architect needs to solve the problem with minimal changes to the existing web application.
What should the solutions architect recommend?
A. Export the data to Amazon DynamoDB and have the business analysts run their queries.
B. Load the data into Amazon ElastiCache and have the business analysts run their queries.
C. Create a read replica of the primary database and have the business analysts run their queries.
D. Copy the data into an Amazon Redshift cluster and have the business analysts run their queries.
전자 상거래 회사는 Amazon RDS 기반 웹 응용 프로그램의 성능 저하를 발견했습니다. 성능 저하는 비즈니스 분석가가 트리거 된 읽기 전용 SQL 쿼리 수의 증가로 인한 것입니다. 솔루션 아키텍트는 기존 웹 애플리케이션을 최소화하면서 문제를 해결해야합니다.
솔루션 아키텍트는 무엇을 권장해야합니까?
A. 데이터를 Amazon DynamoDB로 내보내고 비즈니스 분석가가 쿼리를 실행하게합니다.
B. 데이터를 Amazon Elasticache에로드하고 비즈니스 분석가가 쿼리를 실행하게합니다.
C. 기본 데이터베이스의 읽기 복제본을 작성하고 비즈니스 분석가가 쿼리를 실행하게합니다.
D. 데이터를 Amazon Redshift 클러스터에 복사하고 비즈니스 분석가가 쿼리를 실행하게하십시오.
Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95032-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.270
A company is using a centralized AWS account to store log data in various Amazon S3 buckets. A solutions architect needs to ensure that the data is encrypted at rest before the data is uploaded to the S3 buckets. The data also must be encrypted in transit.
Which solution meets these requirements?
A. Use client-side encryption to encrypt the data that is being uploaded to the S3 buckets.
B. Use server-side encryption to encrypt the data that is being uploaded to the S3 buckets.
C. Create bucket policies that require the use of server-side encryption with S3 managed encryption keys (SSE-S3) for S3 uploads.
D. Enable the security option to encrypt the S3 buckets through the use of a default AWS Key Management Service (AWS KMS) key.
회사는 중앙 집중식 AWS 계정을 사용하여 로그 데이터를 다양한 Amazon S3 버킷에 저장하고 있습니다. 솔루션 아키텍트는 데이터가 S3 버킷에 업로드되기 전에 데이터가 REST에서 암호화되도록해야합니다. 데이터는 운송 중에도 암호화되어야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 클라이언트 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화하십시오.
B. 서버 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화하십시오.
C. S3 업로드에 대한 S3 관리 암호화 키 (SSE-S3)와 함께 서버 측 암호화를 사용해야하는 버킷 정책을 만듭니다.
D. 기본 AWS Key Management Service (AWS) 키를 사용하여 S3 버킷을 암호화하려면 보안 옵션을 활성화하십시오.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95031-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.271
A solutions architect observes that a nightly batch processing job is automatically scaled up for 1 hour before the desired Amazon EC2 capacity is reached. The peak capacity is the ‘same every night and the batch jobs always start at 1 AM. The solutions architect needs to find a cost-effective solution that will allow for the desired EC2 capacity to be reached quickly and allow the Auto Scaling group to scale down after the batch jobs are complete.
What should the solutions architect do to meet these requirements?
A. Increase the minimum capacity for the Auto Scaling group.
B. Increase the maximum capacity for the Auto Scaling group.
C. Configure scheduled scaling to scale up to the desired compute level.
D. Change the scaling policy to add more EC2 instances during each scaling operation.
솔루션 아키텍트는 야간 배치 처리 작업이 원하는 Amazon EC2 용량에 도달하기 전에 1 시간 동안 자동으로 조정된다는 것을 관찰합니다. 피크 용량은 매일 밤 동일하며 배치 작업은 항상 오전 1시에 시작합니다. 솔루션 아키텍트는 원하는 EC2 용량에 신속하게 도달 할 수있는 비용 효율적인 솔루션을 찾아서 배치 작업이 완료된 후 자동 스케일링 그룹이 축소 할 수 있도록해야합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족시키기 위해 무엇을해야합니까?
A. 자동 스케일링 그룹의 최소 용량을 늘리십시오.
B. 자동 스케일링 그룹의 최대 용량을 늘립니다.
C. 원하는 컴퓨팅 레벨까지 확장하도록 예약 된 스케일링을 구성합니다.
D. 각 스케일링 작업 중에 더 많은 EC2 인스턴스를 추가하려면 스케일링 정책을 변경하십시오.
Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95018-exam-aws-certified-solutions-architect-associate-saa-c03/
** 최신덤프에 없는 추가 문제 **
NO.91
A company has applications that run on Amazon EC2 instances in a VPC. One of the applications needs to call the Amazon S3 API to store and read objects. According to the company's security regulations, no traffic from the applications is allowed to travel across the internet.
Which solution will meet these requirements?
A. Configure an S3 gateway endpoint.
B. Create an S3 bucket in a private subnet.
C. Create an S3 bucket in the same AWS Region as the EC2 instances.
D. Configure a NAT gateway in the same subnet as the EC2 instances.
회사에는 VPC의 Amazon EC2 인스턴스에서 실행되는 응용 프로그램이 있습니다. 응용 프로그램 중 하나는 Amazon S3 API를 호출하여 객체를 저장하고 읽어야합니다. 회사의 보안 규정에 따르면 응용 프로그램의 트래픽은 인터넷을 가로 질러 이동할 수 없습니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. S3 게이트웨이 엔드 포인트를 구성하십시오.
B. 개인 서브넷에서 S3 버킷을 만듭니다.
C. EC2 인스턴스와 동일한 AWS 영역에서 S3 버킷을 만듭니다.
D. EC2 인스턴스와 동일한 서브넷에서 NAT 게이트웨이를 구성하십시오.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/85667-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.99
A company is implementing a shared storage solution for a gaming application that is hosted in an on-premises data center. The company needs the ability to use Lustre clients to access data. The solution must be fully managed.
Which solution meets these requirements?
A. Create an AWS Storage Gateway file gateway. Create a file share that uses the required client protocol. Connect the application server to the file share.
B. Create an Amazon EC2 Windows instance. Install and configure a Windows file share role on the instance. Connect the application server to the file share.
C. Create an Amazon Elastic File System (Amazon EFS) file system, and configure it to support Lustre. Attach the file system to the origin server. Connect the application server to the file system.
D. Create an Amazon FSx for Lustre file system. Attach the file system to the origin server. Connect the application server to the file system.
회사는 온-프레미스 데이터 센터에서 호스팅되는 게임 애플리케이션을위한 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 Luster 클라이언트를 사용하여 데이터에 액세스 할 수있는 기능이 필요합니다. 솔루션은 완전히 관리해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS 스토리지 게이트웨이 파일 게이트웨이를 만듭니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 응용 프로그램 서버를 파일 공유에 연결하십시오.
B. Amazon EC2 Windows 인스턴스를 만듭니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성하십시오. 응용 프로그램 서버를 파일 공유에 연결하십시오.
C. Amazon Elastic File System (Amazon EFS) 파일 시스템을 만들고 Luster를 지원하도록 구성하십시오. 파일 시스템을 Origin 서버에 첨부하십시오. 응용 프로그램 서버를 파일 시스템에 연결하십시오.
D. 광택 파일 시스템을위한 Amazon FSX를 만듭니다. 파일 시스템을 Origin 서버에 첨부하십시오. 응용 프로그램 서버를 파일 시스템에 연결하십시오.
Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/85811-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.157
A company stores data in an Amazon Aurora PostgreSQL DB cluster. The company must store all the data for 5 years and must delete all the data after 5 years. The company also must indefinitely keep audit logs of actions that are performed within the database. Currently, the company has automated backups configured for Aurora.
Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
A. Take a manual snapshot of the DB cluster.
B. Create a lifecycle policy for the automated backups.
C. Configure automated backup retention for 5 years.
D. Configure an Amazon CloudWatch Logs export for the DB cluster.
E. Use AWS Backup to take the backups and to keep the backups for 5 years.
회사는 Amazon Aurora Postgresql DB 클러스터에 데이터를 저장합니다. 회사는 5 년 동안 모든 데이터를 저장해야하며 5 년 후에 모든 데이터를 삭제해야합니다. 회사는 또한 데이터베이스 내에서 수행되는 작업의 감사 로그를 무기한 유지해야합니다. 현재이 회사는 Aurora로 구성된 백업을 자동화했습니다.
솔루션 아키텍트가 이러한 요구 사항을 충족시키기 위해 어떤 단계를 취해야합니까? (2 개 선택.)
A. DB 클러스터의 수동 스냅 샷을 사용하십시오.
B. 자동 백업에 대한 수명주기 정책을 만듭니다.
C. 5 년 동안 자동 백업 보존을 구성합니다.
D. DB 클러스터에 대한 Amazon CloudWatch Logs 내보내기를 구성하십시오.
E. AWS 백업을 사용하여 백업을 취하고 5 년 동안 백업을 유지합니다.
Answer: DE
Ref.
https://www.examtopics.com/discussions/amazon/view/87629-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.161
A company has a small Python application that processes JSON documents and outputs the results to an on-premises SQL database. The application runs thousands of times each day. The company wants to move the application to the AWS Cloud. The company needs a highly available solution that maximizes scalability and minimizes operational overhead.
Which solution will meet these requirements?
A. Place the JSON documents in an Amazon S3 bucket. Run the Python code on multiple Amazon EC2 instances to process the documents. Store the results in an Amazon Aurora DB cluster.
B. Place the JSON documents in an Amazon S3 bucket. Create an AWS Lambda function that runs the Python code to process the documents as they arrive in the S3 bucket. Store the results in an Amazon Aurora DB cluster.
C. Place the JSON documents in an Amazon Elastic Block Store (Amazon EBS) volume. Use the EBS Multi-Attach feature to attach the volume to multiple Amazon EC2 instances. Run the Python code on the EC2 instances to process the documents. Store the results on an Amazon RDS DB instance.
D. Place the JSON documents in an Amazon Simple Queue Service (Amazon SQS) queue as messages. Deploy the Python code as a container on an Amazon Elastic Container Service (Amazon ECS) cluster that is configured with the Amazon EC2 launch type. Use the container to process the SQS messages. Store the results on an Amazon RDS DB instance.
회사에는 JSON 문서를 처리하고 결과를 온 프레미스 SQL 데이터베이스에 출력하는 작은 파이썬 응용 프로그램이 있습니다. 응용 프로그램은 매일 수천 번 실행됩니다. 회사는 응용 프로그램을 AWS 클라우드로 옮기려고합니다. 이 회사는 확장 성을 극대화하고 운영 오버 헤드를 최소화하는 고용 가능한 솔루션이 필요합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. JSON 문서를 Amazon S3 버킷에 넣습니다. 여러 Amazon EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리하십시오. 결과를 Amazon Aurora DB 클러스터에 저장하십시오.
B. JSON 문서를 Amazon S3 버킷에 넣습니다. S3 버킷에 도착할 때 문서를 처리하기 위해 Python 코드를 실행하는 AWS Lambda 기능을 만듭니다. 결과를 Amazon Aurora DB 클러스터에 저장하십시오.
C. JSON 문서를 Amazon Elastic Block Store (Amazon EBS) 볼륨에 넣습니다. EBS Multi-Attach 기능을 사용하여 볼륨을 여러 Amazon EC2 인스턴스에 연결하십시오. EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리하십시오. Amazon RDS DB 인스턴스에 결과를 저장하십시오.
D. JSON 문서를 Amazon Simple Queue Service (Amazon SQS) 대기열에 메시지로 배치하십시오. Amazon EC2 런치 유형으로 구성된 Amazon Elastic Container Service (Amazon ECS) 클러스터에서 Python 코드를 컨테이너로 배포하십시오. 컨테이너를 사용하여 SQS 메시지를 처리하십시오. Amazon RDS DB 인스턴스에 결과를 저장하십시오.
Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/87633-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.178
A company’s infrastructure consists of Amazon EC2 instances and an Amazon RDS DB instance in a single AWS Region. The company wants to back up its data in a separate Region.
Which solution will meet these requirements with the LEAST operational overhead?
A. Use AWS Backup to copy EC2 backups and RDS backups to the separate Region.
B. Use Amazon Data Lifecycle Manager (Amazon DLM) to copy EC2 backups and RDS backups to the separate Region.
C. Create Amazon Machine Images (AMIs) of the EC2 instances. Copy the AMIs to the separate Region. Create a read replica for the RDS DB instance in the separate Region.
D. Create Amazon Elastic Block Store (Amazon EBS) snapshots. Copy the EBS snapshots to the separate Region. Create RDS snapshots. Export the RDS snapshots to Amazon S3. Configure S3 Cross-Region Replication (CRR) to the separate Region.
회사의 인프라는 단일 AWS 지역의 Amazon EC2 인스턴스와 Amazon RDS DB 인스턴스로 구성됩니다. 회사는 별도의 지역에서 데이터를 백업하려고합니다.
최소 운영 오버 헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS 백업을 사용하여 EC2 백업 및 RDS 백업을 별도의 영역에 복사합니다.
B. Amazon Data Lifecycle Manager (Amazon DLM)를 사용하여 EC2 백업 및 RDS 백업을 별도의 영역에 복사하십시오.
C. EC2 인스턴스의 아마존 머신 이미지 (AMI)를 만듭니다. Amis를 별도의 영역에 복사하십시오. 별도의 영역에서 RDS DB 인스턴스에 대한 읽기 복제본을 만듭니다.
D. Amazon Elastic Block Store (Amazon EBS) 스냅 샷을 만듭니다. EBS 스냅 샷을 별도의 영역으로 복사하십시오. RDS 스냅 샷을 만듭니다. RDS 스냅 샷을 Amazon S3로 내 보냅니다. S3 교차 지역 복제 (CRR)를 별도의 영역으로 구성하십시오.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/87639-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.188
A company uses Amazon S3 as its data lake. The company has a new partner that must use SFTP to upload data files. A solutions architect needs to implement a highly available SFTP solution that minimizes operational overhead.
Which solution will meet these requirements?
A. Use AWS Transfer Family to configure an SFTP-enabled server with a publicly accessible endpoint. Choose the S3 data lake as the destination.
B. Use Amazon S3 File Gateway as an SFTP server. Expose the S3 File Gateway endpoint URL to the new partner. Share the S3 File Gateway endpoint with the new partner.
C. Launch an Amazon EC2 instance in a private subnet in a VPInstruct the new partner to upload files to the EC2 instance by using a VPN. Run a cron job script, on the EC2 instance to upload files to the S3 data lake.
D. Launch Amazon EC2 instances in a private subnet in a VPC. Place a Network Load Balancer (NLB) in front of the EC2 instances. Create an SFTP listener port for the NLB. Share the NLB hostname with the new partner. Run a cron job script on the EC2 instances to upload files to the S3 data lake.
회사는 Amazon S3를 데이터 호수로 사용합니다. 회사에는 데이터 파일을 업로드하기 위해 SFTP를 사용해야하는 새로운 파트너가 있습니다. 솔루션 아키텍트는 운영 오버 헤드를 최소화하는 고도로 사용 가능한 SFTP 솔루션을 구현해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS 전송 패밀리를 사용하여 공개적으로 액세스 할 수있는 엔드 포인트가있는 SFTP 지원 서버를 구성하십시오. S3 Data Lake를 대상으로 선택하십시오.
B. Amazon S3 파일 게이트웨이를 SFTP 서버로 사용하십시오. S3 파일 게이트웨이 엔드 포인트 URL을 새 파트너에게 노출시킵니다. S3 파일 게이트웨이 엔드 포인트를 새로운 파트너와 공유하십시오.
C. VPINSTRUCT의 개인 서브넷에서 Amazon EC2 인스턴스를 시작하여 새 파트너를 VPN을 사용하여 EC2 인스턴스에 파일을 업로드합니다. EC2 인스턴스에서 Cron 작업 스크립트를 실행하여 파일을 S3 데이터 레이크에 업로드하십시오.
D. VPC의 개인 서브넷에서 Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스 앞에 네트워크로드 밸런서 (NLB)를 배치하십시오. NLB 용 SFTP 리스너 포트를 만듭니다. NLB 호스트 이름을 새 파트너와 공유하십시오. EC2 인스턴스에서 Cron 작업 스크립트를 실행하여 파일을 S3 데이터 레이크에 업로드하십시오.
Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/87566-exam-aws-certified-solutions-architect-associate-saa-c03/
NO.189
A company needs to store contract documents. A contract lasts for 5 years. During the 5-year period, the company must ensure that the documents cannot be overwritten or deleted. The company needs to encrypt the documents at rest and rotate the encryption keys automatically every year.
Which combination of steps should a solutions architect take to meet these requirements with the LEAST operational overhead? (Choose two.)
A. Store the documents in Amazon S3. Use S3 Object Lock in governance mode.
B. Store the documents in Amazon S3. Use S3 Object Lock in compliance mode.
C. Use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure key rotation.
D. Use server-side encryption with AWS Key Management Service (AWS KMS) customer managed keys. Configure key rotation.
E. Use server-side encryption with AWS Key Management Service (AWS KMS) customer provided (imported) keys. Configure key rotation.
회사는 계약서를 저장해야합니다. 계약은 5 년 동안 지속됩니다. 5 년 동안 회사는 문서를 덮어 쓰거나 삭제할 수 없도록해야합니다. 회사는 REST에서 문서를 암호화하고 매년 암호화 키를 자동으로 회전시켜야합니다.
Solutions Architect의 조합은 운영상의 오버 헤드로 이러한 요구 사항을 충족시키기 위해 어떤 단계를 취해야합니까? (2 개 선택.)
A. Amazon S3에 문서를 저장하십시오. 거버넌스 모드에서 S3 객체 잠금을 사용하십시오.
B. 문서를 Amazon S3에 저장하십시오. 준수 모드에서 S3 객체 잠금을 사용하십시오.
C. Amazon S3 관리 암호화 키 (SSE-S3)와 함께 서버 측 암호화를 사용하십시오. 키 회전을 구성합니다.
D. AWS 키 관리 서비스 (AWS KMS) 고객 관리 키와 함께 서버 측 암호화를 사용하십시오. 키 회전을 구성합니다.
E. AWS 키 관리 서비스 (AWS KMS) 고객과 함께 서버 측 암호화를 사용합니다. 키 회전을 구성합니다.
Answer: BD
Ref.
https://www.examtopics.com/discussions/amazon/view/87535-exam-aws-certified-solutions-architect-associate-saa-c03/
'Cloud > AWS SAA' 카테고리의 다른 글
AWS SAA_C03 Examtopics 신규추가 #1.(No.210 ~ No.245) (0) | 2023.01.20 |
---|---|
AWS SAA_C03 Dumps 문제풀이 #9 (0) | 2022.10.30 |
AWS SAA_C03 Dumps #9 (0) | 2022.10.30 |
AWS SAA_C03 Dumps 문제풀이 #8 (0) | 2022.10.30 |
AWS SAA_C03 Dumps #8 (1) | 2022.10.30 |