NO.210
A company offers a food delivery service that is growing rapidly. Because of the growth, the company’s order processing system is experiencing scaling problems during peak traffic hours. The current architecture includes the following:
• A group of Amazon EC2 instances that run in an Amazon EC2 Auto Scaling group to collect orders from the application
• Another group of EC2 instances that run in an Amazon EC2 Auto Scaling group to fulfill orders
The order collection process occurs quickly, but the order fulfillment process can take longer. Data must not be lost because of a scaling event.
A solutions architect must ensure that the order collection process and the order fulfillment process can both scale properly during peak traffic hours. The solution must optimize utilization of the company’s AWS resources.
Which solution meets these requirements?
A. Use Amazon CloudWatch metrics to monitor the CPU of each instance in the Auto Scaling groups. Configure each Auto Scaling group’s minimum capacity according to peak workload values.
B. Use Amazon CloudWatch metrics to monitor the CPU of each instance in the Auto Scaling groups. Configure a CloudWatch alarm to invoke an Amazon Simple Notification Service (Amazon SNS) topic that creates additional Auto Scaling groups on demand.
C. Provision two Amazon Simple Queue Service (Amazon SQS) queues: one for order collection and another for order fulfillment. Configure the EC2 instances to poll their respective queue. Scale the Auto Scaling groups based on notifications that the queues send.
D. Provision two Amazon Simple Queue Service (Amazon SQS) queues: one for order collection and another for order fulfillment. Configure the EC2 instances to poll their respective queue. Create a metric based on a backlog per instance calculation. Scale the Auto Scaling groups based on this metric.

회사는 빠르게 성장하고있는 식품 배달 서비스를 제공합니다. 성장으로 인해 회사의 주문 처리 시스템은 최대 수준의 트래픽 시간 동안 스케일링 문제를 겪고 있습니다. 현재 아키텍처에는 다음이 포함됩니다.
• 애플리케이션에서 주문을 수집하기 위해 Amazon EC2 자동 스케일링 그룹에서 실행되는 Amazon EC2 인스턴스 그룹
• Amazon EC2 자동 스케일링 그룹에서 실행되는 다른 EC2 인스턴스 그룹을 통해 주문을 이행합니다.
주문 수집 프로세스는 빠르게 발생하지만 주문 이행 프로세스는 더 오래 걸릴 수 있습니다. 스케일링 이벤트로 인해 데이터가 손실되지 않아야합니다.
솔루션 아키텍트는 주문 수집 프로세스와 주문 이행 프로세스가 최대 트래픽 시간 동안 제대로 확장 될 수 있도록해야합니다. 솔루션은 회사의 AWS 리소스의 활용을 최적화해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon CloudWatch 메트릭을 사용하여 자동 스케일링 그룹에서 각 인스턴스의 CPU를 모니터링하십시오. 피크 워크로드 값에 따라 각 자동 스케일링 그룹의 최소 용량을 구성하십시오.
B. Amazon CloudWatch 메트릭을 사용하여 자동 스케일링 그룹에서 각 인스턴스의 CPU를 모니터링하십시오. CloudWatch 알람을 구성하여 Amazon Simple Notification Service (Amazon SNS) 주제를 요청하여 추가 자동 스케일링 그룹을 작성하십시오.
C. 2 개의 Amazon Simple Queue Service (Amazon SQS) 대기열 : 주문 수집 용 및 주문 이행 용. EC2 인스턴스를 구성하여 해당 대기열을 폴링하십시오. 대기열이 보내는 알림에 따라 자동 스케일링 그룹을 확장하십시오.
D. 2 개의 Amazon Simple Queue Service (Amazon SQS) 대기열 : 주문 수집 용 및 주문 이행 용. EC2 인스턴스를 구성하여 해당 대기열을 폴링하십시오. 인스턴스 계산 당 백 로그를 기반으로 메트릭을 만듭니다. 이 메트릭에 따라 자동 스케일링 그룹을 확장하십시오.

Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/94992-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.211
A company hosts multiple production applications. One of the applications consists of resources from Amazon EC2, AWS Lambda, Amazon RDS, Amazon Simple Notification Service (Amazon SNS), and Amazon Simple Queue Service (Amazon SQS) across multiple AWS Regions. All company resources are tagged with a tag name of “application” and a value that corresponds to each application. A solutions architect must provide the quickest solution for identifying all of the tagged components.
Which solution meets these requirements?
A. Use AWS CloudTrail to generate a list of resources with the application tag.
B. Use the AWS CLI to query each service across all Regions to report the tagged components.
C. Run a query in Amazon CloudWatch Logs Insights to report on the components with the application tag.
D. Run a query with the AWS Resource Groups Tag Editor to report on the resources globally with the application tag.

회사는 여러 생산 응용 프로그램을 호스팅합니다. 응용 프로그램 중 하나는 Amazon EC2, AWS Lambda, Amazon RDS, Amazon Simple Notification Service (Amazon SNS) 및 Amazon Simple Queue Service (Amazon SQS)의 리소스로 구성되어 있습니다. 모든 회사 리소스는 "응용 프로그램"의 태그 이름과 각 응용 프로그램에 해당하는 값으로 태그됩니다. 솔루션 아키텍트는 태그가 지정된 모든 구성 요소를 식별하기위한 가장 빠른 솔루션을 제공해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS CloudTrail을 사용하여 응용 프로그램 태그로 리소스 목록을 생성합니다.
B. AWS CLI를 사용하여 모든 지역에서 각 서비스를 쿼리하여 태그가 지정된 구성 요소를보고합니다.
C. Amazon CloudWatch 로그에서 쿼리를 실행하여 응용 프로그램 태그로 구성 요소를보고하기 위해 통찰력을 기록합니다.
D. AWS Resource Groups 태그 편집기와 함께 쿼리를 실행하여 응용 프로그램 태그로 전 세계 리소스를보고합니다.

Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95145-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.212
A company needs to export its database once a day to Amazon S3 for other teams to access. The exported object size varies between 2 GB and 5 GB. The S3 access pattern for the data is variable and changes rapidly. The data must be immediately available and must remain accessible for up to 3 months. The company needs the most cost-effective solution that will not increase retrieval time.
Which S3 storage class should the company use to meet these requirements?
A. S3 Intelligent-Tiering
B. S3 Glacier Instant Retrieval
C. S3 Standard
D. S3 Standard-Infrequent Access (S3 Standard-IA)

회사는 다른 팀이 액세스 할 수 있도록 하루에 한 번 Amazon S3에 데이터베이스를 내보내야합니다. 내보낸 객체 크기는 2GB와 5GB 사이입니다. 데이터의 S3 액세스 패턴은 가변적이며 빠르게 변경됩니다. 데이터는 즉시 사용할 수 있어야하며 최대 3 개월 동안 액세스 할 수 있어야합니다. 회사는 검색 시간을 증가시키지 않는 가장 비용 효율적인 솔루션이 필요합니다.
회사가 이러한 요구 사항을 충족하기 위해 어떤 S3 스토리지 클래스를 사용해야합니까?
A. S3 지능형 계층
B. S3 Glacier Instant 검색
C. S3 표준
D. S3 Standard Infrequent Access (S3 Standard-IA)

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95300-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.213
A company is developing a new mobile app. The company must implement proper traffic filtering to protect its Application Load Balancer (ALB) against common application-level attacks, such as cross-site scripting or SQL injection. The company has minimal infrastructure and operational staff. The company needs to reduce its share of the responsibility in managing, updating, and securing servers for its AWS environment.
What should a solutions architect recommend to meet these requirements?
A. Configure AWS WAF rules and associate them with the ALB.
B. Deploy the application using Amazon S3 with public hosting enabled.
C. Deploy AWS Shield Advanced and add the ALB as a protected resource.
D. Create a new ALB that directs traffic to an Amazon EC2 instance running a third-party firewall, which then passes the traffic to the current ALB.

회사는 새로운 모바일 앱을 개발하고 있습니다. 회사는 적절한 트래픽 필터링을 구현하여 ALB (Application Load Balancer)를 크로스 사이트 스크립팅 또는 SQL 주입과 같은 일반적인 응용 프로그램 수준 공격으로부터 보호해야합니다. 회사는 최소 인프라와 운영 직원을 보유하고 있습니다. 회사는 AWS 환경에 대한 서버 관리, 업데이트 및 보호에 대한 책임의 일부를 줄여야합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야합니까?
A. AWS WAF 규칙을 구성하고 ALB와 연결하십시오.
B. 공개 호스팅 활성화와 함께 Amazon S3를 사용하여 응용 프로그램을 배포하십시오.
C. AWS Shield Advanced를 배치하고 ALB를 보호 자원으로 추가하십시오.
D. 타사 방화벽을 실행하는 Amazon EC2 인스턴스로 트래픽을 지시하는 새로운 ALB를 만듭니다.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95301-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.214
A company’s reporting system delivers hundreds of .csv files to an Amazon S3 bucket each day. The company must convert these files to Apache Parquet format and must store the files in a transformed data bucket.
Which solution will meet these requirements with the LEAST development effort?
A. Create an Amazon EMR cluster with Apache Spark installed. Write a Spark application to transform the data. Use EMR File System (EMRFS) to write files to the transformed data bucket.
B. Create an AWS Glue crawler to discover the data. Create an AWS Glue extract, transform, and load (ETL) job to transform the data. Specify the transformed data bucket in the output step.
C. Use AWS Batch to create a job definition with Bash syntax to transform the data and output the data to the transformed data bucket. Use the job definition to submit a job. Specify an array job as the job type.
D. Create an AWS Lambda function to transform the data and output the data to the transformed data bucket. Configure an event notification for the S3 bucket. Specify the Lambda function as the destination for the event notification.

회사의보고 시스템은 매일 Amazon S3 버킷에 수백 개의 .CSV 파일을 제공합니다. 회사는 이러한 파일을 Apache Parquet 형식으로 변환해야하며 파일을 변환 된 데이터 버킷에 저장해야합니다.
최소한 개발 노력으로 이러한 요구 사항을 충족 할 수있는 솔루션은 무엇입니까?
A. Apache Spark가 설치된 Amazon EMR 클러스터를 만듭니다. 데이터를 변환하기 위해 스파크 응용 프로그램을 작성하십시오. EMR 파일 시스템 (EMRF)을 사용하여 변환 된 데이터 버킷에 파일을 작성하십시오.
B. 데이터를 발견하려면 AWS 접착제 크롤러를 만듭니다. AWS 접착제 추출물, 변환 및로드 (ETL) 작업을 만들어 데이터를 변환합니다. 출력 단계에서 변환 된 데이터 버킷을 지정하십시오.
C. AWS 배치를 사용하여 BASH 구문으로 작업 정의를 생성하여 데이터를 변환하고 데이터를 변환 된 데이터 버킷으로 출력합니다. 작업 정의를 사용하여 작업을 제출하십시오. 배열 작업을 작업 유형으로 지정하십시오.
D. AWS Lambda 함수를 만들어 데이터를 변환하고 데이터를 변환 된 데이터 버킷으로 출력합니다. S3 버킷에 대한 이벤트 알림을 구성하십시오. Lambda 기능을 이벤트 알림 대상으로 지정하십시오.

Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95154-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.215
A company has 700 TB of backup data stored in network attached storage (NAS) in its data center. This backup data need to be accessible for infrequent regulatory requests and must be retained 7 years. The company has decided to migrate this backup data from its data center to AWS. The migration must be complete within 1 month. The company has 500 Mbps of dedicated bandwidth on its public internet connection available for data transfer.
What should a solutions architect do to migrate and store the data at the LOWEST cost?
A. Order AWS Snowball devices to transfer the data. Use a lifecycle policy to transition the files to Amazon S3 Glacier Deep Archive.
B. Deploy a VPN connection between the data center and Amazon VPC. Use the AWS CLI to copy the data from on premises to Amazon S3 Glacier.
C. Provision a 500 Mbps AWS Direct Connect connection and transfer the data to Amazon S3. Use a lifecycle policy to transition the files to Amazon S3 Glacier Deep Archive.
D. Use AWS DataSync to transfer the data and deploy a DataSync agent on premises. Use the DataSync task to copy files from the on-premises NAS storage to Amazon S3 Glacier.

회사는 데이터 센터에 네트워크 첨부 스토리지 (NAS)에 저장된 700TB의 백업 데이터를 보유하고 있습니다. 이 백업 데이터는 드물게 규제 요청을 위해 액세스 할 수 있어야하며 7 년을 유지해야합니다. 회사는이 백업 데이터를 데이터 센터에서 AWS로 마이그레이션하기로 결정했습니다. 마이그레이션은 1 개월 이내에 완료해야합니다. 이 회사는 데이터 전송에 사용할 수있는 공개 인터넷 연결에 대해 500Mbps의 전용 대역폭을 보유하고 있습니다.
솔루션 아키텍트는 데이터를 가장 저렴한 비용으로 마이그레이션하고 저장하기 위해 무엇을해야합니까?
A. AWS Snowball 장치를 주문하여 데이터를 전송하십시오. 수명주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환하십시오.
B. 데이터 센터와 Amazon VPC간에 VPN 연결을 배포합니다. AWS CLI를 사용하여 구내에서 Amazon S3 Glacier로 데이터를 복사하십시오.
C. 500Mbps AWS 직접 연결 연결을 제공하고 데이터를 Amazon S3로 전송합니다. 수명주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환하십시오.
D. AWS DataSync를 사용하여 데이터를 전송하고 구내에 DataSync 에이전트를 배포하십시오. DataSync 작업을 사용하여 온 프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사하십시오.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/94983-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.216
A company has a serverless website with millions of objects in an Amazon S3 bucket. The company uses the S3 bucket as the origin for an Amazon CloudFront distribution. The company did not set encryption on the S3 bucket before the objects were loaded. A solutions architect needs to enable encryption for all existing objects and for all objects that are added to the S3 bucket in the future.
Which solution will meet these requirements with the LEAST amount of effort?
A. Create a new S3 bucket. Turn on the default encryption settings for the new S3 bucket. Download all existing objects to temporary local storage. Upload the objects to the new S3 bucket.
B. Turn on the default encryption settings for the S3 bucket. Use the S3 Inventory feature to create a .csv file that lists the unencrypted objects. Run an S3 Batch Operations job that uses the copy command to encrypt those objects.
C. Create a new encryption key by using AWS Key Management Service (AWS KMS). Change the settings on the S3 bucket to use server-side encryption with AWS KMS managed encryption keys (SSE-KMS). Turn on versioning for the S3 bucket.
D. Navigate to Amazon S3 in the AWS Management Console. Browse the S3 bucket’s objects. Sort by the encryption field. Select each unencrypted object. Use the Modify button to apply default encryption settings to every unencrypted object in the S3 bucket.

회사에는 Amazon S3 버킷에 수백만 개의 객체가있는 서버리스 웹 사이트가 있습니다. 회사는 S3 버킷을 Amazon Cloudfront 배포의 원점으로 사용합니다. 회사는 물체가로드되기 전에 S3 버킷에 암호화를 설정하지 않았습니다. 솔루션 아키텍트는 모든 기존 객체와 향후 S3 버킷에 추가되는 모든 객체에 대한 암호화를 활성화해야합니다.
최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 새 S3 버킷을 만듭니다. 새 S3 버킷의 기본 암호화 설정을 켜십시오. 기존 객체를 임시 로컬 스토리지로 다운로드하십시오. 새 S3 버킷에 객체를 업로드하십시오.
B. S3 버킷의 기본 암호화 설정을 켭니다. S3 인벤토리 기능을 사용하여 암호화되지 않은 개체를 나열하는 .CSV 파일을 만듭니다. 사본 명령을 사용하여 해당 객체를 암호화하는 S3 배치 작업 작업을 실행하십시오.
C. AWS 키 관리 서비스 (AWS KMS)를 사용하여 새 암호화 키를 만듭니다. S3 버킷의 설정을 변경하여 AWS KMS 관리 암호화 키 (SSE-KMS)와 함께 서버 측 암호화를 사용하십시오. S3 버킷의 버전을 켜십시오.
D. AWS 관리 콘솔에서 Amazon S3로 이동하십시오. S3 버킷의 물체를 찾아보십시오. 암호화 필드별로 정렬하십시오. 암호화되지 않은 각 객체를 선택하십시오. 수정 버튼을 사용하여 S3 버킷의 암호화되지 않은 모든 개체에 기본 암호화 설정을 적용하십시오.

Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95040-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.217
A company runs a global web application on Amazon EC2 instances behind an Application Load Balancer. The application stores data in Amazon Aurora. The company needs to create a disaster recovery solution and can tolerate up to 30 minutes of downtime and potential data loss. The solution does not need to handle the load when the primary infrastructure is healthy.
What should a solutions architect do to meet these requirements?
A. Deploy the application with the required infrastructure elements in place. Use Amazon Route 53 to configure active-passive failover. Create an Aurora Replica in a second AWS Region.
B. Host a scaled-down deployment of the application in a second AWS Region. Use Amazon Route 53 to configure active-active failover. Create an Aurora Replica in the second Region.
C. Replicate the primary infrastructure in a second AWS Region. Use Amazon Route 53 to configure active-active failover. Create an Aurora database that is restored from the latest snapshot.
D. Back up data with AWS Backup. Use the backup to create the required infrastructure in a second AWS Region. Use Amazon Route 53 to configure active-passive failover. Create an Aurora second primary instance in the second Region.

회사는 Amazon EC2 인스턴스에서 응용 프로그램로드 밸런서 뒤에서 글로벌 웹 응용 프로그램을 실행합니다. 응용 프로그램은 Amazon Aurora에 데이터를 저장합니다. 회사는 재해 복구 솔루션을 만들어야하며 최대 30 분의 다운 타임 및 잠재적 데이터 손실을 견딜 수 있습니다. 1 차 인프라가 건강 할 때 솔루션은 부하를 처리 할 필요가 없습니다.
이러한 요구 사항을 충족시키기 위해 솔루션 아키텍트는 무엇을해야합니까?
A. 필요한 인프라 요소를 사용하여 응용 프로그램을 배포하십시오. Amazon Route 53을 사용하여 활성 패러 시브 장애 조치를 구성하십시오. 1 초 AWS 지역에서 오로라 복제품을 만듭니다.
B. 1 초 AWS 영역에서 응용 프로그램의 스케일 다운 배포를 주최합니다. Amazon Route 53을 사용하여 활성 활성 장애 조치를 구성하십시오. 두 번째 지역에서 오로라 복제품을 만듭니다.
C. 초 1 차 AWS 지역에서 1 차 인프라를 복제하십시오. Amazon Route 53을 사용하여 활성 활성 장애 조치를 구성하십시오. 최신 스냅 샷에서 복원되는 Aurora 데이터베이스를 만듭니다.
D. AWS 백업으로 데이터를 백업합니다. 백업을 사용하여 Second AWS 지역에서 필요한 인프라를 만듭니다. Amazon Route 53을 사용하여 활성 패러 시브 장애 조치를 구성하십시오. 두 번째 영역에서 오로라 두 번째 기본 인스턴스를 만듭니다.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95015-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.218
A company has a web server running on an Amazon EC2 instance in a public subnet with an Elastic IP address. The default security group is assigned to the EC2 instance. The default network ACL has been modified to block all traffic. A solutions architect needs to make the web server accessible from everywhere on port 443.
Which combination of steps will accomplish this task? (Choose two.)
A. Create a security group with a rule to allow TCP port 443 from source 0.0.0.0/0.
B. Create a security group with a rule to allow TCP port 443 to destination 0.0.0.0/0.
C. Update the network ACL to allow TCP port 443 from source 0.0.0.0/0.
D. Update the network ACL to allow inbound/outbound TCP port 443 from source 0.0.0.0/0 and to destination 0.0.0.0/0.
E. Update the network ACL to allow inbound TCP port 443 from source 0.0.0.0/0 and outbound TCP port 32768-65535 to destination 0.0.0.0/0.

회사는 탄성 IP 주소가있는 공개 서브넷의 Amazon EC2 인스턴스에서 웹 서버를 실행하고 있습니다. 기본 보안 그룹이 EC2 인스턴스에 할당됩니다. 기본 네트워크 ACL이 모든 트래픽을 차단하도록 수정되었습니다. 솔루션 아키텍트는 포트 443의 모든 곳에서 웹 서버에 액세스 할 수 있도록해야합니다.
어떤 단계 가이 작업을 수행 할 것인가? (2 개 선택.)
A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙이있는 보안 그룹을 만듭니다.
B. TCP 포트 443을 대상 0.0.0.0/0으로 허용하는 규칙이있는 보안 그룹을 만듭니다.
C. 네트워크 ACL을 업데이트하여 소스 0.0.0.0/0에서 TCP 포트 443을 허용합니다.
D. 네트워크 ACL을 업데이트하여 소스 0.0.0.0/0에서 인바운드/아웃 바운드 TCP 포트 443을 허용하고 대상 0.0.0.0/0을 허용합니다.
E. 소스 0.0.0.0/0 및 아웃 바운드 TCP 포트 32768-65535에서 대상 0.0.0.0/0까지 인바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트하십시오.

Answer: AE
Ref.
https://www.examtopics.com/discussions/amazon/view/95056-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.219
A company’s application is having performance issues. The application is stateful and needs to complete in-memory tasks on Amazon EC2 instances. The company used AWS CloudFormation to deploy infrastructure and used the M5 EC2 instance family. As traffic increased, the application performance degraded. Users are reporting delays when the users attempt to access the application.
Which solution will resolve these issues in the MOST operationally efficient way?
A. Replace the EC2 instances with T3 EC2 instances that run in an Auto Scaling group. Make the changes by using the AWS Management Console.
B. Modify the CloudFormation templates to run the EC2 instances in an Auto Scaling group. Increase the desired capacity and the maximum capacity of the Auto Scaling group manually when an increase is necessary.
C. Modify the CloudFormation templates. Replace the EC2 instances with R5 EC2 instances. Use Amazon CloudWatch built-in EC2 memory metrics to track the application performance for future capacity planning.
D. Modify the CloudFormation templates. Replace the EC2 instances with R5 EC2 instances. Deploy the Amazon CloudWatch agent on the EC2 instances to generate custom application latency metrics for future capacity planning.

회사의 응용 프로그램에는 성능 문제가 있습니다. 응용 프로그램은 상태가 적합하며 Amazon EC2 인스턴스에서 메모리 내 작업을 완료해야합니다. 이 회사는 AWS CloudFormation을 사용하여 인프라를 배치하고 M5 EC2 인스턴스 제품군을 사용했습니다. 트래픽이 증가함에 따라 응용 프로그램 성능이 저하되었습니다. 사용자는 사용자가 응용 프로그램에 액세스하려고 할 때 지연을보고합니다.
어떤 솔루션이 가장 운영적으로 효율적인 방식으로 이러한 문제를 해결합니까?
A. EC2 인스턴스를 자동 스케일링 그룹에서 실행되는 T3 EC2 인스턴스로 바꾸십시오. AWS 관리 콘솔을 사용하여 변경하십시오.
B. 자동 스케일링 그룹에서 EC2 인스턴스를 실행하도록 CloudFormation 템플릿을 수정하십시오. 증가가 필요할 때 원하는 용량과 자동 스케일링 그룹의 최대 용량을 늘리십시오.
C. CloudFormation 템플릿을 수정하십시오. EC2 인스턴스를 R5 EC2 인스턴스로 바꾸십시오. Amazon CloudWatch 내장 EC2 메모리 메트릭을 사용하여 향후 용량 계획을위한 애플리케이션 성능을 추적하십시오.
D. CloudFormation 템플릿을 수정하십시오. EC2 인스턴스를 R5 EC2 인스턴스로 바꾸십시오. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을위한 사용자 정의 응용 프로그램 대기 시간 메트릭을 생성하십시오.

Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95162-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.220
A solutions architect is designing a new API using Amazon API Gateway that will receive requests from users. The volume of requests is highly variable; several hours can pass without receiving a single request. The data processing will take place asynchronously, but should be completed within a few seconds after a request is made.
Which compute service should the solutions architect have the API invoke to deliver the requirements at the lowest cost?
A. An AWS Glue job
B. An AWS Lambda function
C. A containerized service hosted in Amazon Elastic Kubernetes Service (Amazon EKS)
D. A containerized service hosted in Amazon ECS with Amazon EC2

솔루션 아키텍트는 사용자로부터 요청을받을 Amazon API 게이트웨이를 사용하여 새로운 API를 설계하고 있습니다. 요청량은 매우 다양합니다. 단일 요청을받지 않고 몇 시간 동안 통과 할 수 있습니다. 데이터 처리는 비동기 적으로 발생하지만 요청이 이루어진 후 몇 초 안에 완료해야합니다.
Solutions Architect는 API가 최저 비용으로 요구 사항을 제공하기 위해 API를 호출해야합니까?
A. AWS 접착제 작업
B. AWS 람다 기능
C. Amazon Elastic Kubernetes Service (Amazon EKS)에서 호스팅 된 컨테이너화 된 서비스
D. Amazon EC2와 함께 Amazon EC에서 호스팅 된 컨테이너 화 된 서비스

Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95306-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.221
A company runs an application on a group of Amazon Linux EC2 instances. For compliance reasons, the company must retain all application log files for 7 years. The log files will be analyzed by a reporting tool that must be able to access all the files concurrently.
Which storage solution meets these requirements MOST cost-effectively?
A. Amazon Elastic Block Store (Amazon EBS)
B. Amazon Elastic File System (Amazon EFS)
C. Amazon EC2 instance store
D. Amazon S3

회사는 Amazon Linux EC2 인스턴스 그룹에서 응용 프로그램을 운영합니다. 준수 이유로 인해 회사는 7 년 동안 모든 애플리케이션 로그 파일을 보유해야합니다. 로그 파일은 모든 파일에 동시에 액세스 할 수있는보고 도구로 분석됩니다.
어떤 스토리지 솔루션이 가장 비용 효율적으로 이러한 요구 사항을 충족합니까?
A. Amazon Elastic Block Store (Amazon EBS)
B. 아마존 탄성 파일 시스템 (Amazon EFS)
C. Amazon EC2 인스턴스 저장소
D. 아마존 S3

Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95307-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.222
A company has hired an external vendor to perform work in the company’s AWS account. The vendor uses an automated tool that is hosted in an AWS account that the vendor owns. The vendor does not have IAM access to the company’s AWS account.
How should a solutions architect grant this access to the vendor?
A. Create an IAM role in the company’s account to delegate access to the vendor’s IAM role. Attach the appropriate IAM policies to the role for the permissions that the vendor requires.
B. Create an IAM user in the company’s account with a password that meets the password complexity requirements. Attach the appropriate IAM policies to the user for the permissions that the vendor requires.
C. Create an IAM group in the company’s account. Add the tool’s IAM user from the vendor account to the group. Attach the appropriate IAM policies to the group for the permissions that the vendor requires.
D. Create a new identity provider by choosing “AWS account” as the provider type in the IAM console. Supply the vendor’s AWS account ID and user name. Attach the appropriate IAM policies to the new provider for the permissions that the vendor requires.

회사는 외부 공급 업체를 고용하여 회사의 AWS 계정에서 작업을 수행했습니다. 공급 업체는 공급 업체가 소유 한 AWS 계정으로 호스팅되는 자동 도구를 사용합니다. 공급 업체는 회사의 AWS 계정에 IAM 액세스 권한이 없습니다.
Solutions Architect는 어떻게 이러한 액세스 권한을 공급 업체에 부여해야합니까?
A. 회사의 계정에서 IAM 역할을 수행하여 공급 업체의 IAM 역할에 대한 액세스를 위임합니다. 적절한 IAM 정책을 공급 업체가 요구하는 권한의 역할에 첨부하십시오.
B. 암호 복잡성 요구 사항을 충족하는 비밀번호로 회사 계정에서 IAM 사용자를 만듭니다. 공급 업체가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 첨부하십시오.
C. 회사 계정에서 IAM 그룹을 만듭니다. 공급 업체 계정에서 도구의 IAM 사용자를 그룹에 추가하십시오. 공급 업체가 요구하는 권한에 대해 적절한 IAM 정책을 그룹에 첨부하십시오.
D. IAM 콘솔의 공급자 유형으로 "AWS 계정"을 선택하여 새 ID 제공자를 만듭니다. 공급 업체의 AWS 계정 ID 및 사용자 이름을 제공하십시오. 공급 업체가 요구하는 권한에 대해 적절한 IAM 정책을 새 공급자에 첨부하십시오.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95160-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.223
A company has deployed a Java Spring Boot application as a pod that runs on Amazon Elastic Kubernetes Service (Amazon EKS) in private subnets. The application needs to write data to an Amazon DynamoDB table. A solutions architect must ensure that the application can interact with the DynamoDB table without exposing traffic to the internet.
Which combination of steps should the solutions architect take to accomplish this goal? (Choose two.)
A. Attach an IAM role that has sufficient privileges to the EKS pod.
B. Attach an IAM user that has sufficient privileges to the EKS pod.
C. Allow outbound connectivity to the DynamoDB table through the private subnets’ network ACLs.
D. Create a VPC endpoint for DynamoDB.
E. Embed the access keys in the Java Spring Boot code.

회사는 개인 서브넷에서 Amazon Elastic Kubernetes 서비스 (Amazon EKS)에서 실행되는 POD로 Java Spring Boot 응용 프로그램을 배치했습니다. 응용 프로그램은 Amazon DynamoDB 테이블에 데이터를 작성해야합니다. 솔루션 아키텍트는 응용 프로그램이 인터넷에 트래픽을 노출시키지 않고 DynamODB 테이블과 상호 작용할 수 있도록해야합니다.
솔루션 아키텍트 가이 목표를 달성하기 위해 어떤 단계를 취해야합니까? (2 개 선택.)
A. EKS 포드에 충분한 권한이있는 IAM 역할을 첨부하십시오.
B. EKS 포드에 충분한 권한이있는 IAM 사용자를 첨부하십시오.
C. 개인 서브넷의 네트워크 ACL을 통해 DynamoDB 테이블에 아웃 바운드 연결을 허용합니다.
D. DynamoDB에 대한 VPC 엔드 포인트를 만듭니다.
E. Java Spring Boot 코드에 액세스 키를 포함시킵니다.

Answer: AD
Ref.
https://www.examtopics.com/discussions/amazon/view/95310-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.224
A company recently migrated its web application to AWS by rehosting the application on Amazon EC2 instances in a single AWS Region. The company wants to redesign its application architecture to be highly available and fault tolerant. Traffic must reach all running EC2 instances randomly.
Which combination of steps should the company take to meet these requirements? (Choose two.)
A. Create an Amazon Route 53 failover routing policy.
B. Create an Amazon Route 53 weighted routing policy.
C. Create an Amazon Route 53 multivalue answer routing policy.
D. Launch three EC2 instances: two instances in one Availability Zone and one instance in another Availability Zone.
E. Launch four EC2 instances: two instances in one Availability Zone and two instances in another Availability Zone.

회사는 최근 단일 AWS 지역의 Amazon EC2 인스턴스의 응용 프로그램을 재구성하여 웹 응용 프로그램을 AWS로 마이그레이션했습니다. 이 회사는 응용 프로그램 아키텍처가 고도로 이용 가능하고 결함이 있도록 재 설계하려고합니다. 트래픽은 실행중인 모든 EC2 인스턴스에 무작위로 도달해야합니다.
회사는 이러한 요구 사항을 충족시키기 위해 어떤 단계를 수행해야합니까? (2 개 선택.)
A. Amazon Route 53 장애 조치 라우팅 정책을 만듭니다.
B. Amazon Route 53 가중 라우팅 정책을 만듭니다.
C. Amazon Route 53 Multivalue 답변 라우팅 정책을 만듭니다.
D. 3 개의 EC2 인스턴스를 시작합니다. 하나의 가용성 영역에서 2 개의 인스턴스와 다른 가용성 영역에서 1 개의 인스턴스.
E. 4 개의 EC2 인스턴스를 시작합니다. 하나의 가용성 영역에있는 2 개의 인스턴스와 다른 가용성 영역에서 2 개의 인스턴스.

Answer: CE
Ref.
https://www.examtopics.com/discussions/amazon/view/95311-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.225
A media company collects and analyzes user activity data on premises. The company wants to migrate this capability to AWS. The user activity data store will continue to grow and will be petabytes in size. The company needs to build a highly available data ingestion solution that facilitates on-demand analytics of existing data and new data with SQL.
Which solution will meet these requirements with the LEAST operational overhead?
A. Send activity data to an Amazon Kinesis data stream. Configure the stream to deliver the data to an Amazon S3 bucket.
B. Send activity data to an Amazon Kinesis Data Firehose delivery stream. Configure the stream to deliver the data to an Amazon Redshift cluster.
C. Place activity data in an Amazon S3 bucket. Configure Amazon S3 to run an AWS Lambda function on the data as the data arrives in the S3 bucket.
D. Create an ingestion service on Amazon EC2 instances that are spread across multiple Availability Zones. Configure the service to forward data to an Amazon RDS Multi-AZ database.

미디어 회사는 구내에서 사용자 활동 데이터를 수집하고 분석합니다. 회사는이 기능을 AWS로 마이그레이션하려고합니다. 사용자 활동 데이터 저장소는 계속 성장하고 크기가 큰 페타 바이트가 될 것입니다. 이 회사는 기존 데이터의 주문형 분석과 SQL을 사용하여 새로운 데이터를 용이하게하는 고도로 사용 가능한 데이터 수집 솔루션을 구축해야합니다.
최소 운영 오버 헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon Kinesis 데이터 스트림으로 활동 데이터를 보냅니다. 스트림을 구성하여 데이터를 Amazon S3 버킷으로 전달하십시오.
B. Amazon Kinesis 데이터 소방 전달 스트림으로 활동 데이터를 보냅니다. 스트림을 구성하여 데이터를 Amazon Redshift 클러스터로 전달하십시오.
C. Amazon S3 버킷에 활동 데이터를 배치하십시오. 데이터가 S3 버킷에 도착하면 데이터에서 AWS Lambda 기능을 실행하도록 Amazon S3를 구성하십시오.
D. 여러 가용성 영역에 퍼져있는 Amazon EC2 인스턴스에서 섭취 서비스를 만듭니다. 데이터를 Amazon RDS Multi-AZ 데이터베이스로 전달하도록 서비스를 구성하십시오.

Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/94985-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.226
A company collects data from thousands of remote devices by using a RESTful web services application that runs on an Amazon EC2 instance. The EC2 instance receives the raw data, transforms the raw data, and stores all the data in an Amazon S3 bucket. The number of remote devices will increase into the millions soon. The company needs a highly scalable solution that minimizes operational overhead.
Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
A. Use AWS Glue to process the raw data in Amazon S3.
B. Use Amazon Route 53 to route traffic to different EC2 instances.
C. Add more EC2 instances to accommodate the increasing amount of incoming data.
D. Send the raw data to Amazon Simple Queue Service (Amazon SQS). Use EC2 instances to process the data.
E. Use Amazon API Gateway to send the raw data to an Amazon Kinesis data stream. Configure Amazon Kinesis Data Firehose to use the data stream as a source to deliver the data to Amazon S3.

회사는 Amazon EC2 인스턴스에서 실행되는 편안한 웹 서비스 응용 프로그램을 사용하여 수천 개의 원격 장치에서 데이터를 수집합니다. EC2 인스턴스는 원시 데이터를 수신하고 원시 데이터를 변환하며 모든 데이터를 Amazon S3 버킷에 저장합니다. 원격 장치의 수는 곧 수백만 명으로 증가 할 것입니다. 회사는 운영 오버 헤드를 최소화하는 고도로 확장 가능한 솔루션이 필요합니다.
솔루션 아키텍트가 이러한 요구 사항을 충족시키기 위해 어떤 단계를 취해야합니까? (2 개 선택.)
A. AWS 접착제를 사용하여 Amazon S3의 원시 데이터를 처리하십시오.
B. Amazon Route 53을 사용하여 트래픽을 다른 EC2 인스턴스로 라우팅합니다.
C. 들어오는 양의 들어오는 데이터를 수용하기 위해 더 많은 EC2 인스턴스를 추가하십시오.
D. 원시 데이터를 Amazon Simple Queue Service (Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리하십시오.
E. Amazon API 게이트웨이를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. Amazon Kinesis Data Firehose를 구성하여 데이터 스트림을 Amazon S3에 데이터를 전달하는 소스로 사용하십시오.

Answer: AE
Ref.
https://www.examtopics.com/discussions/amazon/view/95312-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.227
A company needs to retain its AWS CloudTrail logs for 3 years. The company is enforcing CloudTrail across a set of AWS accounts by using AWS Organizations from the parent account. The CloudTrail target S3 bucket is configured with S3 Versioning enabled. An S3 Lifecycle policy is in place to delete current objects after 3 years.
After the fourth year of use of the S3 bucket, the S3 bucket metrics show that the number of objects has continued to rise. However, the number of new CloudTrail logs that are delivered to the S3 bucket has remained consistent.
Which solution will delete objects that are older than 3 years in the MOST cost-effective manner?
A. Configure the organization’s centralized CloudTrail trail to expire objects after 3 years.
B. Configure the S3 Lifecycle policy to delete previous versions as well as current versions.
C. Create an AWS Lambda function to enumerate and delete objects from Amazon S3 that are older than 3 years.
D. Configure the parent account as the owner of all objects that are delivered to the S3 bucket.

회사는 3 년 동안 AWS CloudTrail 로그를 유지해야합니다. 이 회사는 부모 계정의 AWS 조직을 사용하여 AWS 계정 세트에서 CloudTrail을 시행하고 있습니다. CloudTrail Target S3 버킷은 S3 버전 설정 활성화로 구성됩니다. 3 년 후 현재 객체를 삭제하기 위해 S3 라이프 사이클 정책이 마련되었습니다.
S3 버킷을 사용한 4 년 후 S3 버킷 메트릭은 물체의 수가 계속 상승한 것으로 나타났습니다. 그러나 S3 버킷으로 전달되는 새로운 CloudTrail 로그의 수는 일관성을 유지했습니다.
가장 비용 효율적인 방식으로 3 년 이상 된 객체를 삭제하는 솔루션은 무엇입니까?
A. 조직의 중앙 집중식 CloudTrail 트레일을 구성하여 3 년 후 객체를 만료시킵니다.
B. S3 라이프 사이클 정책을 구성하여 이전 버전과 현재 버전을 삭제하십시오.
C. 3 세 이상인 Amazon S3에서 객체를 열고 삭제하기 위해 AWS Lambda 기능을 만듭니다.
D. 부모 계정을 S3 버킷으로 전달 된 모든 개체의 소유자로 구성하십시오.

Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95314-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.228
A company has an API that receives real-time data from a fleet of monitoring devices. The API stores this data in an Amazon RDS DB instance for later analysis. The amount of data that the monitoring devices send to the API fluctuates. During periods of heavy traffic, the API often returns timeout errors.
After an inspection of the logs, the company determines that the database is not capable of processing the volume of write traffic that comes from the API. A solutions architect must minimize the number of connections to the database and must ensure that data is not lost during periods of heavy traffic.
Which solution will meet these requirements?
A. Increase the size of the DB instance to an instance type that has more available memory.
B. Modify the DB instance to be a Multi-AZ DB instance. Configure the application to write to all active RDS DB instances.
C. Modify the API to write incoming data to an Amazon Simple Queue Service (Amazon SQS) queue. Use an AWS Lambda function that Amazon SQS invokes to write data from the queue to the database.
D. Modify the API to write incoming data to an Amazon Simple Notification Service (Amazon SNS) topic. Use an AWS Lambda function that Amazon SNS invokes to write data from the topic to the database.

회사에는 모니터링 장치에서 실시간 데이터를 수신하는 API가 있습니다. API는이 데이터를 나중에 분석하기 위해 Amazon RDS DB 인스턴스에 저장합니다. 모니터링 장치가 API에 전송하는 데이터의 양이 변동합니다. 트래픽이 많은 기간 동안 API는 종종 타임 아웃 오류를 반환합니다.
로그를 검사 한 후 회사는 데이터베이스가 API에서 발생하는 쓰기 트래픽의 양을 처리 할 수 ​​없다고 결정합니다. 솔루션 아키텍트는 데이터베이스에 대한 연결 횟수를 최소화해야하며 트래픽이 많은 기간 동안 데이터 손실되지 않도록해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. DB 인스턴스의 크기를 더 많이 사용 가능한 메모리가있는 인스턴스 유형으로 늘리십시오.
B. DB 인스턴스를 Multi-AZ DB 인스턴스로 수정하십시오. 모든 활성 RDS DB 인스턴스에 쓸 수 있도록 응용 프로그램을 구성하십시오.
C. API를 수정하여 수신 데이터를 Amazon Simple Deue Service (Amazon SQS) 대기열에 작성하십시오. Amazon SQS가 큐에서 데이터베이스로 데이터를 작성하기 위해 호출하는 AWS Lambda 기능을 사용하십시오.
D. API를 수정하여 수신 데이터를 Amazon Simple Notification Service (Amazon SNS) 주제에 작성하십시오. Amazon SNS가 주제에서 데이터베이스에 데이터를 작성하기 위해 호출하는 AWS Lambda 기능을 사용하십시오.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95318-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.229
A company manages its own Amazon EC2 instances that run MySQL databases. The company is manually managing replication and scaling as demand increases or decreases. The company needs a new solution that simplifies the process of adding or removing compute capacity to or from its database tier as needed. The solution also must offer improved performance, scaling, and durability with minimal effort from operations.
Which solution meets these requirements?
A. Migrate the databases to Amazon Aurora Serverless for Aurora MySQL.
B. Migrate the databases to Amazon Aurora Serverless for Aurora PostgreSQL.
C. Combine the databases into one larger MySQL database. Run the larger database on larger EC2 instances.
D. Create an EC2 Auto Scaling group for the database tier. Migrate the existing databases to the new environment.

회사는 MySQL 데이터베이스를 실행하는 자체 Amazon EC2 인스턴스를 관리합니다. 회사는 수요가 증가하거나 감소함에 따라 복제 및 스케일링을 수동으로 관리하고 있습니다. 이 회사는 필요에 따라 데이터베이스 계층에 또는 데이터베이스 계층에 컴퓨팅 용량을 추가하거나 제거하는 프로세스를 단순화하는 새로운 솔루션이 필요합니다. 이 솔루션은 또한 운영의 최소한의 노력으로 개선 된 성능, 스케일링 및 내구성을 제공해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Aurora MySQL을 위해 데이터베이스를 Amazon Aurora Serverless로 마이그레이션합니다.
B. Aurora Postgresql의 데이터베이스를 Amazon Aurora Serverless로 마이그레이션합니다.
C. 데이터베이스를 하나의 더 큰 MySQL 데이터베이스로 결합하십시오. 더 큰 EC2 인스턴스에서 더 큰 데이터베이스를 실행하십시오.
D. 데이터베이스 계층에 대한 EC2 자동 스케일링 그룹을 만듭니다. 기존 데이터베이스를 새로운 환경으로 마이그레이션하십시오.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95319-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.230
A company is concerned that two NAT instances in use will no longer be able to support the traffic needed for the company’s application. A solutions architect wants to implement a solution that is highly available, fault tolerant, and automatically scalable.
What should the solutions architect recommend?
A. Remove the two NAT instances and replace them with two NAT gateways in the same Availability Zone.
B. Use Auto Scaling groups with Network Load Balancers for the NAT instances in different Availability Zones.
C. Remove the two NAT instances and replace them with two NAT gateways in different Availability Zones.
D. Replace the two NAT instances with Spot Instances in different Availability Zones and deploy a Network Load Balancer.

회사는 사용중인 두 개의 NAT 사례가 더 이상 회사의 응용 프로그램에 필요한 트래픽을 지원할 수 없을 것이라고 우려하고 있습니다. Solutions Architect는 고도로 사용 가능한 솔루션을 구현하고, 결함이 풍부하며 자동으로 확장 가능한 솔루션을 구현하려고합니다.
솔루션 아키텍트는 무엇을 권장해야합니까?
A. 두 개의 NAT 인스턴스를 제거하고 동일한 가용성 영역의 두 개의 NAT 게이트웨이로 교체하십시오.
B. 다른 가용성 영역의 NAT 인스턴스에 네트워크로드 밸런서가있는 자동 스케일링 그룹을 사용하십시오.
C. 두 개의 NAT 인스턴스를 제거하고 다른 가용성 영역에서 두 개의 NAT 게이트웨이로 교체하십시오.
D. 두 개의 NAT 인스턴스를 다른 가용성 영역의 스팟 인스턴스로 교체하고 네트워크로드 밸런서를 배포하십시오.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95322-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.231
An application runs on an Amazon EC2 instance that has an Elastic IP address in VPC A. The application requires access to a database in VPC B. Both VPCs are in the same AWS account.
Which solution will provide the required access MOST securely?
A. Create a DB instance security group that allows all traffic from the public IP address of the application server in VPC A.
B. Configure a VPC peering connection between VPC A and VPC B.
C. Make the DB instance publicly accessible. Assign a public IP address to the DB instance.
D. Launch an EC2 instance with an Elastic IP address into VPC B. Proxy all requests through the new EC2 instance.

응용 프로그램은 VPC A에 탄성 IP 주소가있는 Amazon EC2 인스턴스에서 실행됩니다. 응용 프로그램은 VPC B의 데이터베이스에 대한 액세스가 필요합니다. 두 VPC는 ​​동일한 AWS 계정에 있습니다.
필요한 액세스를 가장 안전하게 제공하는 솔루션은 무엇입니까?
A. VPC에서 응용 프로그램 서버의 공개 IP 주소에서 모든 트래픽을 허용하는 DB 인스턴스 보안 그룹을 만듭니다.
B. VPC A와 VPC 간의 VPC 피어링 연결 구성 B.
C. DB 인스턴스에 공개적으로 액세스 할 수 있도록합니다. 공개 IP 주소를 DB 인스턴스에 할당합니다.
D. 탄성 IP 주소가있는 EC2 인스턴스를 VPC B에 시작하십시오. 새로운 EC2 인스턴스를 통한 모든 요청을 프록시합니다.

Answer: B
Ref.
https://www.examtopics.com/discussions/amazon/view/95323-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.232
A company runs demonstration environments for its customers on Amazon EC2 instances. Each environment is isolated in its own VPC. The company’s operations team needs to be notified when RDP or SSH access to an environment has been established.
A. Configure Amazon CloudWatch Application Insights to create AWS Systems Manager OpsItems when RDP or SSH access is detected.
B. Configure the EC2 instances with an IAM instance profile that has an IAM role with the AmazonSSMManagedInstanceCore policy attached.
C. Publish VPC flow logs to Amazon CloudWatch Logs. Create required metric filters. Create an Amazon CloudWatch metric alarm with a notification action for when the alarm is in the ALARM state.
D. Configure an Amazon EventBridge rule to listen for events of type EC2 Instance State-change Notification. Configure an Amazon Simple Notification Service (Amazon SNS) topic as a target. Subscribe the operations team to the topic.

회사는 Amazon EC2 인스턴스에서 고객을위한 데모 환경을 운영합니다. 각 환경은 자체 VPC로 분리됩니다. 환경에 대한 RDP 또는 SSH 액세스가 설정되었을 때 회사의 운영 팀에 통보되어야합니다.
A. RDP 또는 SSH 액세스가 감지 될 때 AWS Systems Manager Opsitems를 만들기 위해 Amazon CloudWatch 응용 프로그램 통찰력을 구성하십시오.
B. AmazOnsSmmanagedInstancecore 정책이 첨부 된 IAM 역할을 가진 IAM 인스턴스 프로파일로 EC2 인스턴스를 구성합니다.
C. VPC 흐름 로그를 Amazon CloudWatch 로그에 게시합니다. 필요한 메트릭 필터를 만듭니다. 알람이 경보 상태에있을 때 알림 조치를 통해 Amazon CloudWatch 메트릭 알람을 만듭니다.
D. 유형 EC2 인스턴스 상태 변경 알림의 이벤트를 듣기 위해 Amazon EventBridge 규칙을 구성합니다.

Amazon Simple Notification Service (Amazon SNS) 주제를 대상으로 구성하십시오. 운영 팀을 주제로 구독하십시오.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95324-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.233
A solutions architect has created a new AWS account and must secure AWS account root user access.
Which combination of actions will accomplish this? (Choose two.)
A. Ensure the root user uses a strong password.
B. Enable multi-factor authentication to the root user.
C. Store root user access keys in an encrypted Amazon S3 bucket.
D. Add the root user to a group containing administrative permissions.
E. Apply the required permissions to the root user with an inline policy document.

솔루션 아키텍트는 새로운 AWS 계정을 만들었으며 AWS 계정 루트 사용자 액세스를 보호해야합니다.
어떤 조합이 이것을 달성 할 것인가? (2 개 선택.)
A. 루트 사용자가 강력한 암호를 사용하는지 확인하십시오.
B. 루트 사용자에게 다중 인증 인증을 활성화합니다.
C. 암호화 된 Amazon S3 버킷에 루트 사용자 액세스 키를 저장하십시오.
D. 관리 권한이 포함 된 그룹에 루트 사용자를 추가하십시오.
E. 인라인 정책 문서를 사용하여 루트 사용자에게 필요한 권한을 적용하십시오.

Answer: AB
Ref.
https://www.examtopics.com/discussions/amazon/view/95084-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.234
A company is building a new web-based customer relationship management application. The application will use several Amazon EC2 instances that are backed by Amazon Elastic Block Store (Amazon EBS) volumes behind an Application Load Balancer (ALB). The application will also use an Amazon Aurora database. All data for the application must be encrypted at rest and in transit.
Which solution will meet these requirements?
A. Use AWS Key Management Service (AWS KMS) certificates on the ALB to encrypt data in transit. Use AWS Certificate Manager (ACM) to encrypt the EBS volumes and Aurora database storage at rest.
B. Use the AWS root account to log in to the AWS Management Console. Upload the company’s encryption certificates. While in the root account, select the option to turn on encryption for all data at rest and in transit for the account.
C. Use AWS Key Management Service (AWS KMS) to encrypt the EBS volumes and Aurora database storage at rest. Attach an AWS Certificate Manager (ACM) certificate to the ALB to encrypt data in transit.
D. Use BitLocker to encrypt all data at rest. Import the company’s TLS certificate keys to AWS Key Management Service (AWS KMS) Attach the KMS keys to the ALB to encrypt data in transit.

회사는 새로운 웹 기반 고객 관계 관리 응용 프로그램을 구축하고 있습니다. 이 응용 프로그램은 Application Load Balancer (ALB) 뒤에 Amazon Elastic Block Store (Amazon EBS) 볼륨으로 뒷받침되는 여러 Amazon EC2 인스턴스를 사용합니다. 응용 프로그램은 또한 Amazon Aurora 데이터베이스를 사용합니다. 애플리케이션의 모든 데이터는 휴식 및 대중 교통시 암호화되어야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. ALB에서 AWS Key Management Service (AWS KMS) 인증서를 사용하여 대중 교통의 데이터를 암호화합니다. ACM (AWS Certificate Manager)을 사용하여 EBS 볼륨 및 Aurora 데이터베이스 스토리지를 REST시 암호화하십시오.
B. AWS 루트 계정을 사용하여 AWS 관리 콘솔에 로그인하십시오. 회사의 암호화 인증서를 업로드하십시오. 루트 계정에있는 동안 REST의 모든 데이터와 계정에 대한 트랜지 시티에 대한 암호화를 켜는 옵션을 선택하십시오.
C. AWS Key Management Service (AWS KMS)를 사용하여 EBS 볼륨 및 Aurora 데이터베이스 스토리지를 REST시 암호화합니다. AWS 인증서 관리자 (ACM) 인증서를 ALB에 첨부하여 운송 중에 데이터를 암호화하십시오.
D. Bitlocker를 사용하여 REST에서 모든 데이터를 암호화하십시오. 회사의 TLS 인증 키를 AWS Key Management Service (AWS KMS)로 가져 오십시오. KMS 키를 ALB에 연결하여 대중 교통 데이터를 암호화합니다.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95325-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.235
A company is moving its on-premises Oracle database to Amazon Aurora PostgreSQL. The database has several applications that write to the same tables. The applications need to be migrated one by one with a month in between each migration. Management has expressed concerns that the database has a high number of reads and writes. The data must be kept in sync across both databases throughout the migration.
What should a solutions architect recommend?
A. Use AWS DataSync for the initial migration. Use AWS Database Migration Service (AWS DMS) to create a change data capture (CDC) replication task and a table mapping to select all tables.
B. Use AWS DataSync for the initial migration. Use AWS Database Migration Service (AWS DMS) to create a full load plus change data capture (CDC) replication task and a table mapping to select all tables.
C. Use the AWS Schema Conversion Tool with AWS Database Migration Service (AWS DMS) using a memory optimized replication instance. Create a full load plus change data capture (CDC) replication task and a table mapping to select all tables.
D. Use the AWS Schema Conversion Tool with AWS Database Migration Service (AWS DMS) using a compute optimized replication instance. Create a full load plus change data capture (CDC) replication task and a table mapping to select the largest tables.

회사는 온-프레미스 Oracle 데이터베이스를 Amazon Aurora PostgreSQL로 옮기고 있습니다. 데이터베이스에는 동일한 테이블에 작성되는 여러 응용 프로그램이 있습니다. 응용 프로그램은 각 마이그레이션 사이에 한 달씩 하나씩 하나씩 마이그레이션해야합니다. 경영진은 데이터베이스에 많은 수의 읽기와 쓰기가 있다는 우려를 표명했습니다. 데이터는 마이그레이션 전반에 걸쳐 두 데이터베이스에서 동기화되어야합니다.
솔루션 아키텍트는 무엇을 추천해야합니까?
A. 초기 마이그레이션에 AWS DataSync를 사용하십시오. AWS 데이터베이스 마이그레이션 서비스 (AWS DMS)를 사용하여 CDC (Change Data Capture) 복제 작업과 모든 테이블을 선택하기위한 테이블 매핑을 만듭니다.
B. 초기 마이그레이션에 AWS DataSync를 사용하십시오. AWS 데이터베이스 마이그레이션 서비스 (AWS DMS)를 사용하여 전체로드 플러스 변경 데이터 캡처 (CDC) 복제 작업과 모든 테이블을 선택하기위한 테이블 매핑을 만듭니다.
C. 메모리 최적화 된 복제 인스턴스를 사용하여 AWS 데이터베이스 마이그레이션 서비스 (AWS DMS)와 함께 AWS 스키마 변환 도구를 사용하십시오. 전체로드 플러스 변경 데이터 캡처 (CDC) 복제 작업과 모든 테이블을 선택하기위한 테이블 매핑을 만듭니다.
D. Compute 최적화 된 복제 인스턴스를 사용하여 AWS Database Migration Service (AWS DMS)와 함께 AWS 스키마 변환 도구를 사용하십시오. 최대로드 플러스 변경 데이터 캡처 (CDC) 복제 작업과 가장 큰 테이블을 선택하기위한 테이블 매핑을 만듭니다.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95326-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.236
A company has a three-tier application for image sharing. The application uses an Amazon EC2 instance for the front-end layer, another EC2 instance for the application layer, and a third EC2 instance for a MySQL database. A solutions architect must design a scalable and highly available solution that requires the least amount of change to the application.
Which solution meets these requirements?
A. Use Amazon S3 to host the front-end layer. Use AWS Lambda functions for the application layer. Move the database to an Amazon DynamoDB table. Use Amazon S3 to store and serve users’ images.
B. Use load-balanced Multi-AZ AWS Elastic Beanstalk environments for the front-end layer and the application layer. Move the database to an Amazon RDS DB instance with multiple read replicas to serve users’ images.
C. Use Amazon S3 to host the front-end layer. Use a fleet of EC2 instances in an Auto Scaling group for the application layer. Move the database to a memory optimized instance type to store and serve users’ images.
D. Use load-balanced Multi-AZ AWS Elastic Beanstalk environments for the front-end layer and the application layer. Move the database to an Amazon RDS Multi-AZ DB instance. Use Amazon S3 to store and serve users’ images.

회사는 이미지 공유를위한 3 계층 응용 프로그램이 있습니다. 응용 프로그램은 프론트 엔드 레이어의 Amazon EC2 인스턴스, 응용 프로그램 계층의 다른 EC2 인스턴스 및 MySQL 데이터베이스의 세 번째 EC2 인스턴스를 사용합니다. 솔루션 아키텍트는 애플리케이션에 대한 최소한의 변경이 필요한 확장 가능하고 고도로 사용 가능한 솔루션을 설계해야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. Amazon S3를 사용하여 프런트 엔드 계층을 호스팅하십시오. 애플리케이션 계층에 AWS Lambda 함수를 사용합니다. 데이터베이스를 Amazon DynamoDB 테이블로 이동합니다. Amazon S3를 사용하여 사용자 이미지를 저장하고 제공합니다.

B. 프런트엔드 계층과 애플리케이션 계층에 로드 밸런싱된 다중 AZ AWS Elastic Beanstalk 환경을 사용합니다. 데이터베이스를 여러 읽기 전용 복제본이 있는 Amazon RDS DB 인스턴스로 이동하여 사용자 이미지를 제공합니다.

C. Amazon S3를 사용하여 프런트 엔드 계층을 호스팅합니다. 애플리케이션 계층에 대한 Auto Scaling 그룹의 EC2 인스턴스 플릿을 사용합니다. 데이터베이스를 메모리 최적화 인스턴스 유형으로 이동하여 사용자 이미지를 저장하고 제공합니다.

D. 프런트엔드 계층과 애플리케이션 계층에 로드 밸런싱된 다중 AZ AWS Elastic Beanstalk 환경을 사용합니다. 데이터베이스를 Amazon RDS 다중 AZ DB 인스턴스로 이동합니다. Amazon S3를 사용하여 사용자 이미지를 저장하고 제공합니다.



Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/94990-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.237
An application running on an Amazon EC2 instance in VPC-A needs to access files in another EC2 instance in VPC-B. Both VPCs are in separate AWS accounts. The network administrator needs to design a solution to configure secure access to EC2 instance in VPC-B from VPC-A. The connectivity should not have a single point of failure or bandwidth concerns.
Which solution will meet these requirements?
A. Set up a VPC peering connection between VPC-A and VPC-B.
B. Set up VPC gateway endpoints for the EC2 instance running in VPC-B.
C. Attach a virtual private gateway to VPC-B and set up routing from VPC-A.
D. Create a private virtual interface (VIF) for the EC2 instance running in VPC-B and add appropriate routes from VPC-A.

VPC-A의 Amazon EC2 인스턴스에서 실행되는 응용 프로그램은 VPC-B의 다른 EC2 인스턴스에서 파일에 액세스해야합니다. 두 VPC는 ​​별도의 AWS 계정입니다. 네트워크 관리자는 VPC-B의 VPC-B에서 EC2 인스턴스에 대한 보안 액세스를 구성하기 위해 솔루션을 설계해야합니다. 연결은 단일 고장 또는 대역폭 문제가 없어야합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. VPC-A와 VPC-B 사이의 VPC 피어링 연결을 설정합니다.
B. VPC-B에서 실행되는 EC2 인스턴스에 대한 VPC 게이트웨이 엔드 포인트 설정.
C. 가상 개인 게이트웨이를 VPC-B에 연결하고 VPC-A에서 라우팅을 설정하십시오.
D. VPC-B에서 실행되는 EC2 인스턴스에 대한 개인 가상 인터페이스 (VIF)를 작성하고 VPC-A에서 적절한 경로를 추가하십시오.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95144-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.238
A company wants to experiment with individual AWS accounts for its engineer team. The company wants to be notified as soon as the Amazon EC2 instance usage for a given month exceeds a specific threshold for each account.
What should a solutions architect do to meet this requirement MOST cost-effectively?
A. Use Cost Explorer to create a daily report of costs by service. Filter the report by EC2 instances. Configure Cost Explorer to send an Amazon Simple Email Service (Amazon SES) notification when a threshold is exceeded.
B. Use Cost Explorer to create a monthly report of costs by service. Filter the report by EC2 instances. Configure Cost Explorer to send an Amazon Simple Email Service (Amazon SES) notification when a threshold is exceeded.
C. Use AWS Budgets to create a cost budget for each account. Set the period to monthly. Set the scope to EC2 instances. Set an alert threshold for the budget. Configure an Amazon Simple Notification Service (Amazon SNS) topic to receive a notification when a threshold is exceeded.
D. Use AWS Cost and Usage Reports to create a report with hourly granularity. Integrate the report data with Amazon Athena. Use Amazon EventBridge to schedule an Athena query. Configure an Amazon Simple Notification Service (Amazon SNS) topic to receive a notification when a threshold is exceeded.

회사는 엔지니어 팀의 개별 AWS 계정을 실험하고자합니다. 주어진 달의 Amazon EC2 인스턴스 사용이 각 계정의 특정 임계 값을 초과하자마자 회사는 알림을 받기를 원합니다.
솔루션 아키텍트는이 요구 사항을 가장 비용 효율적으로 충족시키기 위해 무엇을해야합니까?
A. 비용 탐색기를 사용하여 서비스별로 일일 비용 보고서를 작성하십시오. EC2 인스턴스로 보고서를 필터링하십시오. 임계 값을 초과 할 때 Amazon Simple 이메일 서비스 (Amazon SES) 알림을 보내도록 Cost Explorer를 구성하십시오.
B. 비용 탐색기를 사용하여 서비스별로 월별 비용 보고서를 작성하십시오. EC2 인스턴스로 보고서를 필터링하십시오. 임계 값을 초과 할 때 Amazon Simple 이메일 서비스 (Amazon SES) 알림을 보내도록 Cost Explorer를 구성하십시오.
C. AWS 예산을 사용하여 각 계정에 대한 비용 예산을 창출합니다. 기간을 월별로 설정하십시오. 범위를 EC2 인스턴스로 설정하십시오. 예산에 대한 경고 임계 값을 설정하십시오. 임계 값을 초과 할 때 알림을 받으려면 Amazon Simple Notification Service (Amazon SNS) 주제를 구성하십시오.
D. AWS 비용 및 사용 보고서를 사용하여 시간당 세분화가있는 보고서를 작성하십시오. 보고서 데이터를 Amazon Athena와 통합하십시오. Amazon Eventbridge를 사용하여 Athena 쿼리를 예약하십시오. 임계 값을 초과 할 때 알림을 받으려면 Amazon Simple Notification Service (Amazon SNS) 주제를 구성하십시오.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/94996-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.239
A solutions architect needs to design a new microservice for a company’s application. Clients must be able to call an HTTPS endpoint to reach the microservice. The microservice also must use AWS Identity and Access Management (IAM) to authenticate calls. The solutions architect will write the logic for this microservice by using a single AWS Lambda function that is written in Go 1.x.
Which solution will deploy the function in the MOST operationally efficient way?

A. Create an Amazon API Gateway REST API. Configure the method to use the Lambda function. Enable IAM authentication on the API

B. Create a Lambda function URL for the function. Specify AWS_IAM as the authentication type.

C. Create an Amazon CloudFront distribution. Deploy the function to Lambda@Edge. Integrate IAM authentication logic into the Lambda@Edge function.

D. Create an Amazon CloudFront distribution. Deploy the function to CloudFront Functions. Specify AWS_IAM as the authentication type.


솔루션 설계자는 회사의 애플리케이션을 위한 새로운 마이크로서비스를 설계해야 합니다. 클라이언트는 마이크로 서비스에 도달하기 위해 HTTPS 끝점을 호출할 수 있어야 합니다. 또한 마이크로서비스는 AWS Identity and Access Management(IAM)를 사용하여 호출을 인증해야 합니다. 솔루션 설계자는 Go 1.x로 작성된 단일 AWS Lambda 함수를 사용하여 이 마이크로서비스에 대한 논리를 작성합니다.
어떤 솔루션이 운영상 가장 효율적인 방식으로 기능을 배포합니까?

A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다.

B. 함수에 대한 Lambda 함수 URL을 생성합니다. 인증 유형으로 AWS_IAM을 지정합니다.

C. Amazon CloudFront 배포를 생성합니다. 함수를 Lambda@Edge 에 배포합니다 . IAM 인증 로직을 Lambda@Edge 함수에 통합합니다.

D. Amazon CloudFront 배포를 생성합니다. CloudFront Functions에 함수를 배포합니다. 인증 유형으로 AWS_IAM을 지정합니다.


Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95365-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.240
A company previously migrated its data warehouse solution to AWS. The company also has an AWS Direct Connect connection. Corporate office users query the data warehouse using a visualization tool. The average size of a query returned by the data warehouse is 50 MB and each webpage sent by the visualization tool is approximately 500 KB. Result sets returned by the data warehouse are not cached.
Which solution provides the LOWEST data transfer egress cost for the company?
A. Host the visualization tool on premises and query the data warehouse directly over the internet.
B. Host the visualization tool in the same AWS Region as the data warehouse. Access it over the internet.
C. Host the visualization tool on premises and query the data warehouse directly over a Direct Connect connection at a location in the same AWS Region.
D. Host the visualization tool in the same AWS Region as the data warehouse and access it over a Direct Connect connection at a location in the same Region.

회사는 이전에 데이터웨어 하우스 솔루션을 AWS로 마이그레이션했습니다. 회사는 또한 AWS Direct Connect 연결을 가지고 있습니다. 회사 사무실 사용자는 시각화 도구를 사용하여 데이터웨어 하우스를 쿼리합니다. 데이터웨어 하우스에서 반환 한 쿼리의 평균 크기는 50MB이며 시각화 도구에서 보낸 각 웹 페이지는 약 500KB입니다. 데이터웨어 하우스에서 반환 한 결과 세트는 캐시되지 않습니다.
회사에 가장 낮은 데이터 전송 효과를 제공하는 솔루션은 무엇입니까?
A. 구내에서 시각화 도구를 호스팅하고 인터넷을 통해 직접 데이터웨어 하우스를 쿼리하십시오.
B. 데이터웨어 하우스와 동일한 AWS 영역에서 시각화 도구를 호스팅하십시오. 인터넷을 통해 액세스하십시오.
C. 구내에서 시각화 도구를 호스팅하고 동일한 AWS 지역의 위치에서 직접 연결 연결을 통해 데이터웨어 하우스를 직접 쿼리하십시오.
D. 데이터웨어 하우스와 동일한 AWS 영역에서 시각화 도구를 호스팅하고 동일한 지역의 위치에서 직접 연결 연결을 통해 액세스하십시오.

Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/94998-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.241
An online learning company is migrating to the AWS Cloud. The company maintains its student records in a PostgreSQL database. The company needs a solution in which its data is available and online across multiple AWS Regions at all times.
Which solution will meet these requirements with the LEAST amount of operational overhead?
A. Migrate the PostgreSQL database to a PostgreSQL cluster on Amazon EC2 instances.
B. Migrate the PostgreSQL database to an Amazon RDS for PostgreSQL DB instance with the Multi-AZ feature turned on.
C. Migrate the PostgreSQL database to an Amazon RDS for PostgreSQL DB instance. Create a read replica in another Region.
D. Migrate the PostgreSQL database to an Amazon RDS for PostgreSQL DB instance. Set up DB snapshots to be copied to another Region.

온라인 학습 회사가 AWS 클라우드로 마이그레이션하고 있습니다. 회사는 PostgreSQL 데이터베이스에서 학생 기록을 유지합니다. 회사는 항상 여러 AWS 지역에서 데이터를 사용할 수있는 솔루션이 필요합니다.
가장 적은 양의 운영 오버 헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon EC2 인스턴스의 PostgreSQL 데이터베이스를 PostgreSQL 클러스터로 마이그레이션합니다.
B. PostgreSQL 데이터베이스를 Multi-AZ 기능이 켜진 상태에서 PostgreSQL DB 인스턴스의 Amazon RDS로 마이그레이션합니다.
C. PostgreSQL 데이터베이스를 PostgreSQL DB 인스턴스의 Amazon RD로 마이그레이션합니다. 다른 지역에서 읽기 복제본을 만듭니다.
D. PostgreSQL 데이터베이스를 PostgreSQL DB 인스턴스의 Amazon RD로 마이그레이션합니다. 다른 지역에 복사 할 DB 스냅 샷을 설정하십시오.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95000-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.242
A company hosts its web application on AWS using seven Amazon EC2 instances. The company requires that the IP addresses of all healthy EC2 instances be returned in response to DNS queries.
Which policy should be used to meet this requirement?
A. Simple routing policy
B. Latency routing policy
C. Multivalue routing policy
D. Geolocation routing policy

회사는 7 개의 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 응용 프로그램을 호스팅합니다. 회사는 DNS 쿼리에 대한 응답으로 모든 건강한 EC2 인스턴스의 IP 주소를 반환해야합니다.
이 요구 사항을 충족하기 위해 어떤 정책을 사용해야합니까?
A. 간단한 라우팅 정책
B. 대기 시간 라우팅 정책
C. 다중 행사 라우팅 정책
D. 지리적 위치 라우팅 정책

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95001-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.243
A medical research lab produces data that is related to a new study. The lab wants to make the data available with minimum latency to clinics across the country for their on-premises, file-based applications. The data files are stored in an Amazon S3 bucket that has read-only permissions for each clinic.
What should a solutions architect recommend to meet these requirements?
A. Deploy an AWS Storage Gateway file gateway as a virtual machine (VM) on premises at each clinic
B. Migrate the files to each clinic’s on-premises applications by using AWS DataSync for processing.
C. Deploy an AWS Storage Gateway volume gateway as a virtual machine (VM) on premises at each clinic.
D. Attach an Amazon Elastic File System (Amazon EFS) file system to each clinic’s on-premises servers.

의료 연구소는 새로운 연구와 관련된 데이터를 생성합니다. 이 실험실은 온-프레미스 파일 기반 응용 프로그램을 위해 전국의 클리닉에 최소한의 대기 시간으로 데이터를 사용할 수 있도록하려고합니다. 데이터 파일은 각 클리닉에 대한 읽기 전용 권한이있는 Amazon S3 버킷에 저장됩니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야합니까?
A. 각 클리닉의 구내에서 AWS 스토리지 게이트웨이 파일 게이트웨이를 가상 머신 (VM)으로 배포
B. 처리를 위해 AWS DataSync를 사용하여 파일을 각 클리닉의 온 프레미스 애플리케이션으로 마이그레이션합니다.
C. 각 클리닉의 구내에서 AWS 스토리지 게이트웨이 볼륨 게이트웨이를 가상 머신 (VM)으로 배치하십시오.
D. Amazon Elastic File System (Amazon EFS) 파일 시스템을 각 클리닉의 온-프레미스 서버에 첨부하십시오.

Answer: A
Ref.
https://www.examtopics.com/discussions/amazon/view/95002-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.244
A company is using a content management system that runs on a single Amazon EC2 instance. The EC2 instance contains both the web server and the database software. The company must make its website platform highly available and must enable the website to scale to meet user demand.
What should a solutions architect recommend to meet these requirements?
A. Move the database to Amazon RDS, and enable automatic backups. Manually launch another EC2 instance in the same Availability Zone. Configure an Application Load Balancer in the Availability Zone, and set the two instances as targets.
B. Migrate the database to an Amazon Aurora instance with a read replica in the same Availability Zone as the existing EC2 instance. Manually launch another EC2 instance in the same Availability Zone. Configure an Application Load Balancer, and set the two EC2 instances as targets.
C. Move the database to Amazon Aurora with a read replica in another Availability Zone. Create an Amazon Machine Image (AMI) from the EC2 instance. Configure an Application Load Balancer in two Availability Zones. Attach an Auto Scaling group that uses the AMI across two Availability Zones.
D. Move the database to a separate EC2 instance, and schedule backups to Amazon S3. Create an Amazon Machine Image (AMI) from the original EC2 instance. Configure an Application Load Balancer in two Availability Zones. Attach an Auto Scaling group that uses the AMI across two Availability Zones.

회사는 단일 Amazon EC2 인스턴스에서 실행되는 컨텐츠 관리 시스템을 사용하고 있습니다. EC2 인스턴스에는 웹 서버와 데이터베이스 소프트웨어가 모두 포함되어 있습니다. 회사는 웹 사이트 플랫폼을 활발하게 사용할 수 있도록해야하며 웹 사이트가 사용자 수요를 충족시킬 수 있도록해야합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야합니까?
A. 데이터베이스를 Amazon RDS로 이동하고 자동 백업을 활성화하십시오. 동일한 가용성 영역에서 다른 EC2 인스턴스를 수동으로 시작하십시오. 가용성 영역에서 응용 프로그램로드 밸런서를 구성하고 두 인스턴스를 대상으로 설정하십시오.
B. 기존 EC2 인스턴스와 동일한 가용성 영역에서 읽기 복제본을 사용하여 데이터베이스를 Amazon Aurora 인스턴스로 마이그레이션합니다. 동일한 가용성 영역에서 다른 EC2 인스턴스를 수동으로 시작하십시오. 응용 프로그램로드 밸런서를 구성하고 두 EC2 인스턴스를 대상으로 설정하십시오.
C. 다른 가용성 영역에서 읽기 복제본을 사용하여 데이터베이스를 Amazon Aurora로 이동하십시오. EC2 인스턴스에서 아마존 머신 이미지 (AMI)를 만듭니다. 두 개의 가용 영역에서 응용 프로그램로드 밸런서를 구성하십시오. 두 개의 가용성 영역에서 AMI를 사용하는 자동 스케일링 그룹을 연결하십시오.
D. 데이터베이스를 별도의 EC2 인스턴스로 이동하고 백업을 Amazon S3로 예약하십시오. 원래 EC2 인스턴스에서 아마존 머신 이미지 (AMI)를 만듭니다. 두 개의 가용 영역에서 응용 프로그램로드 밸런서를 구성하십시오. 두 개의 가용성 영역에서 AMI를 사용하는 자동 스케일링 그룹을 연결하십시오.

Answer: C
Ref.
https://www.examtopics.com/discussions/amazon/view/95336-exam-aws-certified-solutions-architect-associate-saa-c03/


NO.245
A company is launching an application on AWS. The application uses an Application Load Balancer (ALB) to direct traffic to at least two Amazon EC2 instances in a single target group. The instances are in an Auto Scaling group for each environment. The company requires a development environment and a production environment. The production environment will have periods of high traffic.
Which solution will configure the development environment MOST cost-effectively?
A. Reconfigure the target group in the development environment to have only one EC2 instance as a target.
B. Change the ALB balancing algorithm to least outstanding requests.
C. Reduce the size of the EC2 instances in both environments.
D. Reduce the maximum number of EC2 instances in the development environment’s Auto Scaling group.

회사는 AWS에서 응용 프로그램을 시작하고 있습니다. 응용 프로그램은 응용 프로그램로드 밸런서 (ALB)를 사용하여 단일 대상 그룹에서 트래픽을 최소 2 개의 Amazon EC2 인스턴스로 직접 지시합니다. 인스턴스는 각 환경에 대한 자동 스케일링 그룹에 있습니다. 회사는 개발 환경과 생산 환경이 필요합니다. 생산 환경은 트래픽이 높은 기간을 갖습니다.
개발 환경을 가장 비용 효율적으로 구성하는 솔루션은 무엇입니까?
A. 개발 환경에서 대상 그룹을 대상으로 하나의 EC2 인스턴스 만 갖도록 재구성하십시오.
B. ALB 밸런싱 알고리즘을 최소한의 미결제 요청으로 변경하십시오.
C. 두 환경 모두에서 EC2 인스턴스의 크기를 줄입니다.
D. 개발 환경의 자동 스케일링 그룹에서 최대 EC2 인스턴스 수를 줄입니다.

Answer: D
Ref.
https://www.examtopics.com/discussions/amazon/view/95337-exam-aws-certified-solutions-architect-associate-saa-c03/

728x90
반응형

'Cloud > AWS SAA' 카테고리의 다른 글

AWS SAA_C03 Examtopics 신규추가 #2.(No.246 ~ )  (0) 2023.01.21
AWS SAA_C03 Dumps 문제풀이 #9  (0) 2022.10.30
AWS SAA_C03 Dumps #9  (0) 2022.10.30
AWS SAA_C03 Dumps 문제풀이 #8  (0) 2022.10.30
AWS SAA_C03 Dumps #8  (1) 2022.10.30
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기