문제풀이 열심히 준비했습니다. 중간중간 뜨는 배너는 한번씩 클릭하고 풀어주시면 감사하겠습니다.
No1.
매일 기업은 다양한 소스에서 정형 및 반정형 데이터를 얻습니다. 솔루션 설계자는 빅 데이터 처리를 위한 프레임워크를 사용하는 솔루션을 만들어야 합니다. SQL 쿼리 및 비즈니스 인텔리전스 도구는 데이터에 액세스할 수 있어야 합니다.
가장 성능이 뛰어난 솔루션을 제공하기 위해 솔루션 설계자는 무엇을 옹호해야 합니까?
A. AWS Glue를 사용하여 데이터를 처리하고 Amazon S3를 사용하여 데이터를 저장합니다.
B. Amazon EMR을 사용하여 데이터를 처리하고 Amazon Redshift를 사용하여 데이터를 저장합니다.
C. Amazon EC2를 사용하여 데이터를 처리하고 Amazon Elastic Block Store(Amazon EBS)를 사용하여 데이터를 저장합니다.
D. Amazon Kinesis Data Analytics를 사용하여 데이터를 처리하고 Amazon Elastic File System(Amazon EFS)을 사용하여 데이터를 저장합니다.
B
문제의 키포인트는 '빅 데이터'입니다. EMR은 빅 데이터 처리가 가능한 클라우드 서비스입니다. 또한 Redshift는 SQL 쿼리를 가능하게 하며 BI 도구에 직접 연결할 수 있는 스토리지입니다.
A - 데이터는 SQL을 사용하여 액세스해야 합니다. 하지만, S3는 SQL을 처리할 수 없습니다.(AWS Athena와의 조합 제외)
No2.
Amazon RDS의 MySQL 데이터베이스 인스턴스는 애플리케이션에서 사용됩니다. RDS 데이터베이스는 스토리지 용량을 빠르게 고갈시키고 있습니다. 솔루션 설계자는 다운타임 없이 디스크 용량을 확장하기를 원합니다.
최소 노력량으로 이러한 기준을 충족하는 방법은 무엇입니까?
A. RDS에서 스토리지 자동 크기 조정(Auto Scaling)을 활성화합니다.
B. RDS 데이터베이스 인스턴스 크기를 늘립니다.
C. RDS 데이터베이스 인스턴스 스토리지 유형을 프로비저닝된 IOPS로 변경합니다.
D. RDS 데이터베이스를 백업하고 저장 용량을 늘리고 데이터베이스를 복원하고 이전 인스턴스를 중지합니다.
A
Auto Scaling은 가동 중지 시간 없이 데이터베이스 워크로드 증가에 따라 스토리지 용량을 자동으로 확장합니다. RDS Stroage Auto Scaling을 사용하면 원하는 최대 스토리지의 제한만 설정하면 알아서 용량을 확장하게 됩니다.
B - 인스턴스의 유형(크기)를 변경시 가동 중지 시간이 발생합니다.
C - EC2의 유형을 변경해도 용량을 해결할 수 없습니다.
No3.
비즈니스는 단일 VPC에서 전자 상거래 애플리케이션을 실행합니다. 단일 웹 서버와 Amazon RDS 다중 AZ 데이터베이스 인스턴스는 애플리케이션 스택을 구성합니다.
한 달에 두 번, 회사는 새로운 항목을 소개합니다. 그 결과 최소 72시간 동안 웹사이트 트래픽이 400% 증가합니다. 사용자의 브라우저는 제품 출시 중에 응답 시간이 느리고 시간 초과 문제가 많이 발생합니다.
솔루션 설계자는 최소한의 운영 오버헤드를 유지하면서 응답 시간과 시간 초과 오류를 최소화하기 위해 무엇을 해야 합니까?
A. 웹 서버의 인스턴스 크기를 늘립니다.
B. Application Load Balancer 및 추가 웹 서버를 추가합니다.
C. Amazon EC2 Auto Scaling 및 Application Load Balancer를 추가합니다.
D. Amazon ElastiCache 클러스터를 배포하여 자주 액세스하는 데이터를 저장합니다.
C
보기 B와 C가 헷갈리는 문제입니다. 문제는 특정 시간에 몰리는 트래픽에 대해 최소한의 운영 오버헤드를 유지하며 해결하기를 원하고 있습니다. 보기 B는 좋은 답이 될 수 있지만 추가 웹 서버를 추가하는 것에 있어 C보다 좋지 못합니다. 보기 C는 Auto Scaling과 ALB를 통해 각각 리소스와 트래픽에 관해 적절한 해결을 합니다. 이는 운영 오베헤드가 적습니다.
No4.
솔루션 설계자는 2단계 주문 프로세스 애플리케이션을 개발 중입니다. 첫 번째 단계는 동기식이며 사용자에게 최소한의 지연으로 반환해야 합니다. 두 번째 단계는 시간이 더 오래 걸리므로 별개의 구성 요소로 수행됩니다. 주문은 정확히 한 번만 원래 수령 순서대로 처리되어야 합니다.
솔루션 설계자는 이러한 구성 요소를 어떻게 통합합니까?
A. Amazon SQS FIFO 대기열을 사용합니다.
B. Amazon SQS 표준 대기열과 함께 AWS Lambda 함수를 사용합니다.
C. SNS 주제를 생성하고 해당 주제에 대한 Amazon SQS FIFO 대기열을 구독합니다.
D. SNS 주제를 생성하고 해당 주제에 대한 Amazon SQS 표준 대기열을 구독합니다.
A
SQS의 표준 대기열은 최소 1회 전달을 제공하며, SQS FIFO 대기열은 정확히 1회 전달을 제공합니다. 때문에 우선 FIFO를 사용해야 합니다. 이제 SNS를 사용하냐 마냐인데, SNS도 FIFO가 있습니다. 문제를 해결하기 위해서는 SNS도 FIFO 일 때 가능하며, 굳이 SNS FIFO를 사용하지 않고, SQS FIFO 대기열 만으로도 문제 해결이 가능합니다.
No5.
한 비즈니스에서 AWS를 사용하여 Amazon S3 버킷에 저장된 기상 센서 데이터를 처리하는 애플리케이션을 운영하고 있습니다. 다양한 이유로 S3 버킷의 데이터를 처리하기 위해 3개의 배치 작업이 매시간 실행되도록 예약됩니다. 조직은 이벤트 기반 전략을 사용하여 세 가지 프로그램을 병렬로 실행하여 총 처리 시간을 최소화하고자 합니다.
이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?
A. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 대한 새 객체에 대한 S3 이벤트 알림을 활성화합니다. 처리를 위해 모든 응용 프로그램을 대기열에 등록합니다.
B. Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 대한 새 객체에 대한 S3 이벤트 알림을 활성화합니다. 모든 응용 프로그램에 대한 추가 SQS 대기열을 만들고 처리를 위해 모든 응용 프로그램을 초기 대기열에 등록합니다.
C. 새 객체에 대한 S3 이벤트 알림을 활성화하여 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 분리합니다. 각 응용 프로그램에 대해 추가 SQS 대기열을 만들고 처리를 위해 초기 주제에 각 대기열을 구독합니다.
D. Amazon Simple Notification Service(Amazon SNS) 주제에 대한 새 객체에 대한 S3 이벤트 알림을 활성화합니다. 각 애플리케이션에 대한 Amazon Simple Queue Service(Amazon SQS) 대기열을 생성하고 처리할 주제에 대한 각 대기열을 구독합니다.
D
팬아웃 문제입니다. 동일한 S3 이벤트를 여러 SQS 대기열에 보내려면 팬아웃을 사용해야 합니다. 문제처럼 병렬의 실행 처리를 위해서는 FIFO를 사용할 수 없습니다.
No6.
Amazon EC2 인스턴스의 미디어 조직에서 두 개의 비디오 변환 프로그램을 사용하고 있습니다. 하나의 유틸리티는 Windows 기반이고 다른 유틸리티는 Linux 기반입니다. 각 비디오 파일은 다소 커서 두 프로그램에서 모두 처리해야 합니다.
조직에는 이 작업에 사용되는 모든 EC2 인스턴스에 탑재할 수 있는 중앙 집중식 파일 시스템을 생성할 수 있는 스토리지 솔루션이 필요합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. Windows 인스턴스용 Amazon FSx for Windows 파일 서버를 사용하십시오. Linux 인스턴스에 대해 최대 I/O 성능 모드로 Amazon Elastic File System(Amazon EFS)을 사용합니다.
B. Windows 인스턴스용 Windows 파일 서버용 Amazon FSx를 사용합니다. Linux 인스턴스용 Lustre 용 Amazon FSx를 사용합니다. 두 Amazon FSx 파일 시스템을 동일한 Amazon S3 버킷에 연결합니다.
C. Windows 인스턴스 및 Linux 인스턴스에 대해 범용 성능 모드로 Amazon Elastic File System(Amazon EFS) 사용
D. Windows 인스턴스 및 Linux 인스턴스에 대해 Windows 파일 서버용 Amazon FSx를 사용합니다.
D
먼저 Linux는 EFS와 호환되며, FSx와는 호환이 불가능합니다. 또한 문제에서 모든 EC2 인스턴스에 탑재 가능한 중앙 파일 시스템을 원합니다. 그렇기에 파일 시스템은 하나만 사용해야 합니다. AWS FSx는 여러 옵션이 있는데 그중에 Windows 파일 서버용과 Lustre이 있습니다. Lustre는 고성능 Linux 용이며, Windows 파일 서버용은 Windows, Mac, Linux 모두와 호환이 가능합니다. 때문에 Windows 파일 서버용 FSx를 Windows와 Linux로 사용하면 됩니다.
No7.
기업은 Amazon RDS를 사용하여 웹 애플리케이션을 구동합니다. 새로운 데이터베이스 관리자가 실수로 데이터베이스 테이블에서 데이터를 삭제했습니다. 이러한 상황에서 복구를 지원하기 위해 조직은 데이터베이스를 지난 30일 동안 변경이 발생하기 5분 전의 상태로 복원할 수 있는 능력을 원합니다.
이 요구 사항을 충족하기 위해 솔루션 설계자가 설계에 포함해야 하는 기능은 무엇입니까?
A. 읽기 전용 복제본
B. 수동 스냅샷
C. 자동 백업
D. 다중 AZ 배포
C
RDS는 특정 시점 복구로 복구할 수 있는 볼륨 스냅샷의 자동 백업 생성 기능을 지원합니다. 데이터베이스 인스턴스의 전체 스냅샷은 지정된 백업 기간 동안 매일 생성되며, 증분 스냅샷은 5분마다 생성됩니다.
No8.
한 기업이 AWS에서 호스팅 될 비디오 변환기 애플리케이션을 구축하고 있습니다. 이 프로그램은 무료 버전과 프리미엄 버전의 두 가지 버전으로 제공됩니다. 프리미엄 계층의 사용자가 먼저 비디오를 변환하고 트리 계층의 사용자가 그다음으로 변환합니다.
이 기준을 충족하고 가장 비용 효율적인 옵션은 무엇입니까?
A. 유료 계층을 위한 하나의 FIFO 대기열과 무료 계층을 위한 하나의 표준 대기열.
B. 모든 파일 유형에 대한 단일 FIFO Amazon Simple Queue Service(Amazon SQS) 대기열.
C. 모든 파일 유형에 대한 단일 표준 Amazon Simple Queue Service(Amazon SQS) 대기열.
D. 2개의 표준 Amazon Simple Queue Service(Amazon SQS) 대기열이 하나는 유료 계층용이고 다른 하나는 프리 계층용입니다.
D
SQS 표준 대기열을 각각 유료와 무료로 생성합니다. 유로 대기열에 대해 먼저 폴링하도록 하고 대기열이 비어있는 경우 무료 대기열을 폴링하도록 구성합니다.
A - FIFO(선입선출)는 표준 보다 비싸며, 이를 도입한다고 해서 유로가 먼저 처리되는 것이 아닌 순서대로 처리할 수 있도록 해주는 기능입니다.
No9.
비즈니스에 Amazon Simple Queue Service에 메시지를 보내는 애플리케이션이 있습니다. 다른 프로그램은 큐를 폴링하고 메시지에 대해 I/O 집약적인 작업을 수행합니다. 조직에는 메시지 수신과 사용자 응답 사이에 허용되는 최대 시간을 규정하는 서비스 수준 계약(SLA)이 있습니다. 메시지 볼륨의 증가로 인해 조직은 지속적으로 SLA를 이행하는 데 어려움을 겪고 있습니다.
솔루션 설계자는 애플리케이션의 처리 속도를 높이고 모든 수준의 로드를 관리할 수 있도록 지원하기 위해 무엇을 해야 합니까?
A. 처리에 사용되는 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 인스턴스를 종료하고 더 큰 크기로 교체합니다.
B. 처리에 사용되는 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 인스턴스를 종료하고 Amazon EC2 전용 인스턴스로 교체합니다.
C. 처리에 사용된 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 시작 구성에서 이 이미지를 사용하여 Auto Scaling 그룹을 생성합니다. 총 CPU 사용률을 70% 미만으로 유지하도록 대상 추적 정책으로 그룹을 구성합니다.
D. 처리에 사용되는 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 시작 구성에서 이 이미지를 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열에서 가장 오래된 메시지의 수명을 기반으로 하는 대상 추적 정책으로 그룹을 구성합니다.
D
SLA은 메시지의 기간을 기반으로 하기에 Auto Scaling 그룹을 SQS 대기열에서 가장 오래된 메시지의 수명을 기반으로 하는 대상 추적 정책을 사용합니다. 이렇게 되면 가장 오래된 메시지를 추적해 Auto Scaling 그룹에서 적절한 리소스를 증/감합니다.
No10.
AWS 클라우드에서 기업은 다계층 전자 상거래 웹 애플리케이션을 운영하고 있습니다. 애플리케이션은 Amazon RDS MySQL 다중 AZ 데이터베이스에 연결된 Amazon EC2 인스턴스에서 호스팅 됩니다. Amazon RDS는 Amazon Elastic Block Store(Amazon EBS)의 범용 SSD(gp2) 볼륨에 최신 세대 인스턴스와 2,000GB의 스토리지로 설정됩니다. 수요가 많은 순간에는 데이터베이스 성능이 애플리케이션에 영향을 미칩니다.
Amazon CloudWatch Logs의 로그를 연구한 후 데이터베이스 관리자는 읽기 및 쓰기 IOPS 수가 6.000을 초과하면 애플리케이션 성능이 지속적으로 떨어지는 것을 발견했습니다.
솔루션 설계자는 애플리케이션의 성능을 최적화하기 위해 무엇을 해야 합니까?
A. 볼륨을 마그네틱 볼륨으로 교체합니다.
B. gp2 볼륨의 IOPS 수를 늘립니다.
C. 볼륨을 프로비저닝된 IOPS(PIOPS) 볼륨으로 교체합니다.
D. 2,000GB gp2 볼륨을 2개의 1,000GBgp2 볼륨으로 교체합니다.
C
프로비저닝된 IOPS 볼륨을 사용하면 SSD(gp2)와 비교했을 때 높은 성능 향상을 얻을 수 있습니다.
B - gp2 IOPS는 스토리지와 독립적으로 확장할 수 없습니다.
No11.
Amazon DynamoDB는 엔터테인먼트 회사에서 미디어 메타데이터를 저장하는 데 사용하고 있습니다. 응용 프로그램은 광범위한 읽기가 필요하며 종종 지연이 발생합니다. 조직은 추가 운영 비용을 관리하는 데 필요한 인력이 부족하고 애플리케이션을 변경하지 않고 DynamoDB의 성능 효율성을 높여야 합니다.
이 요구 사항을 충족하려면 어떤 솔루션 아키텍처 접근 방식을 권장해야 합니까?
A. Redis용 Amazon ElastiCache를 사용합니다.
B. Amazon DynamoDB 가속기(DAX)를 사용합니다.
C. DynamoDB 전역 테이블을 사용하여 데이터를 복제합니다.
D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용합니다.
B
문제의 조직에서는 추가 운영 부하를 높이지 않으며, 애플리케이션 또한 변경하지 않고 워크로드의 성능을 향상시키길 원하고 있습니다. 때문에 DAX를 사용해야 합니다. DAX는 DynamoDB에 연결하기 위해서 구성이 따로 필요하지 않습니다. 또한 DAX를 사용할 경우 기존의 한 자릿수 밀리초 지연 시간에서, 읽기가 많은 워크로드에 대해 초당 수백만 건의 요청에 대해 마이크로초 단위의 응답 시간을 얻을 수 있습니다. 마지막으로 DAX를 사용하면 인기 있는 이벤트나 뉴스 기사로 인해 전례 없는 요청 볼륨이 발생하는 경우에도 애플리케이션에 지연 없이 빠른 응답성을 유지합니다.
No12.
지점 사무실에서 회사는 가상화된 컴퓨팅 리소스가 없는 작은 데이터 클로짓에서 애플리케이션을 실행합니다. 애플리케이션의 데이터는 NFS(네트워크 파일 시스템) 볼륨에 저장됩니다. 규정 준수 요구 사항에 따라 NFS 볼륨의 일일 오프사이트 백업이 필요합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. AWS Storage Gateway 파일 게이트웨이를 온프레미스에 설치하여 Amazon S3에 데이터를 복제합니다.
B. AWS Storage Gateway 파일 게이트웨이 하드웨어 어플라이언스를 온프레미스에 설치하여 데이터를 Amazon S3에 복제합니다.
C. 데이터를 Amazon S3에 복제하기 위해 온프레미스에 볼륨이 저장된 AWS Storage Gateway 볼륨 게이트웨이를 설치합니다.
D. 온프레미스에 캐시 된 볼륨이 있는 AWS Storage Gateway 볼륨 게이트웨이를 설치하여 Amazon S3에 데이터를 복제합니다.
B
문제의 키포인트는 '가상화된 컴퓨팅 리소스가 없는 작은 데이터 클로짓'입니다. 이는 지점 사무실에 온프레미스 하드웨어 어플라이언스가 필요함을 의미합니다. 때문에 AWS에서 Storage Gateway 하드웨어 어플라이언스를 주문하여 설치 후 데이터를 S3에 복제하면 됩니다.
No13.
한 비즈니스에서 AWS를 사용하여 전 세계 소비자를 위한 선거 보고 웹 사이트를 호스팅하고 있습니다. 웹 사이트는 웹 및 애플리케이션 계층용 Application Load Balancer가 있는 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용합니다. 데이터베이스 계층은 Amazon RDS for MySQL을 기반으로 합니다. 웹사이트는 선거 결과로 한 시간에 한 번씩 업데이트되며 이전에는 수백 명의 개인이 데이터를 확인하는 것을 보았습니다.
이 회사는 많은 국가에서 임박한 선거의 결과로 앞으로 몇 달 동안 수요가 크게 증가할 것으로 예상합니다. 솔루션 설계자의 목표는 더 많은 EC2 인스턴스에 대한 요구 사항을 제한하면서 증가하는 수요를 관리할 수 있는 웹 사이트의 용량을 늘리는 것입니다.
어떤 솔루션이 이러한 기준을 충족할까요?
A. Amazon ElastiCache 클러스터를 시작하여 공통 데이터베이스 쿼리를 캐시 합니다.
B. Amazon CloudFront 웹 배포를 시작하여 일반적으로 요청되는 웹 사이트 콘텐츠를 캐시 합니다.
C. EC2 인스턴스에서 디스크 기반 캐싱을 활성화하여 일반적으로 요청되는 웹사이트 콘텐츠를 캐싱 합니다.
D. 일반적으로 요청되는 웹 사이트 콘텐츠에 대해 캐싱이 활성화된 EC2 인스턴스를 사용하여 역방향 프록시를 설계에 배포합니다.
B
문제의 키포인트는 '전 세계 사용자'입니다. ElastiCache와 CloudFront 둘 다 문제에 적합한 서비스이지만 CloudFront는 '리전별' 캐시로 문제의 '전 세계'의 사용 사례에 적합합니다. ElastiCache는 일관된 대용량 워크로드 읽기 사례에 더 적합합니다.
No14.
. Amazon S3는 기업에서 날씨 기록을 저장하는 데 사용됩니다. 기록은 회사 웹사이트의 도메인 이름을 참조하는 URL을 통해 액세스 됩니다. 구독을 통해 전 세계 사용자가 이 자료에 액세스할 수 있습니다. 조직의 핵심 도메인 이름은 타사 운영자가 호스팅 하지만 이 회사는 최근 일부 서비스를 Amazon Route 53으로 이전했습니다. 회사는 계약을 통합하고, 사용자 지연 시간을 최소화하고, 구독자에게 애플리케이션을 제공하는 비용을 낮추기를 원합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. Amazon CloudFront에서 웹 배포를 생성하여 애플리케이션에 대한 S3 콘텐츠를 제공합니다. CloudFront 배포를 가리키는 Route 53 호스팅 영역에서 CNAME 레코드를 생성하여 애플리케이션의 URL 도메인 이름을 확인합니다.
B. Amazon CloudFront에서 웹 배포를 생성하여 애플리케이션에 대한 S3 콘텐츠를 제공합니다. CloudFront 배포를 가리키는 Amazon Route 53 호스팅 영역에서 ALIAS 레코드를 생성하여 애플리케이션의 URL 도메인 이름을 확인합니다.
C. 애플리케이션에 대한 Route 53 호스팅 영역에서 A 레코드를 생성합니다. 웹 애플리케이션에 대한 Route 53 트래픽 정책을 생성하고 지리적 위치 규칙을 구성합니다. 엔드포인트의 상태를 확인하고 엔드포인트가 비정상인 경우 DNS 쿼리를 다른 엔드포인트로 라우팅하도록 상태 확인을 구성합니다.
D. 애플리케이션에 대한 Route 53 호스팅 영역에서 A 레코드를 생성합니다. 웹 애플리케이션에 대한 Route 53 트래픽 정책을 생성하고 지리 근접 규칙을 구성합니다. 엔드포인트의 상태를 확인하고 엔드포인트가 비정상인 경우 DNS 쿼리를 다른 엔드포인트로 라우팅하도록 상태 확인을 구성합니다.
B
문제의 키포인트는 '전 세계'입니다. 때문에 CloudFront가 적합하므로 보기 A 와 B가 맞습니다. 이때 두 보기의 차이점은 CNAME 또는 ALIAS입니다. CNAME은 실제 DNS 서버를 위한 것이며, ALIAS는 DNS이지만 특히 AWS 용이라고 할 수 있으며 AWS의 특별 레코드입니다.
No15.
기업은 인터넷을 통해 액세스할 수 있는 웹 응용 프로그램을 개발 중입니다. 애플리케이션은 Amazon RDS MySQL 다중 AZ DB 인스턴스를 활용하여 민감한 사용자 데이터를 저장하는 Linux 용 Amazon EC2 인스턴스에서 호스팅 됩니다. 퍼블릭 서브넷은 EC2 인스턴스에 사용되는 반면 프라이빗 서브넷은 RDS DB 인스턴스에 사용됩니다. 보안 팀은 데이터베이스 인스턴스에 대한 웹 기반 공격을 방지할 것을 요구했습니다.
솔루션 설계자는 어떤 권장 사항을 제시해야 합니까?
A. EC2 인스턴스가 Auto Scaling 그룹의 일부이고 Application Load Balancer 뒤에 있는지 확인하십시오. 의심스러운 웹 트래픽을 삭제하도록 EC2 인스턴스 iptables 규칙을 구성합니다. DB 인스턴스에 대한 보안 그룹을 생성합니다. 개별 EC2 인스턴스에서 들어오는 포트 3306만 허용하도록 RDS 보안 그룹을 구성합니다.
B. EC2 인스턴스가 Auto Scaling 그룹의 일부이고 Application Load Balancer 뒤에 있는지 확인합니다. DB 인스턴스를 EC2 인스턴스가 있는 동일한 서브넷으로 이동합니다. DB 인스턴스에 대한 보안 그룹을 생성합니다. 개별 EC2 인스턴스에서 들어오는 포트 3306만 허용하도록 RDS 보안 그룹을 구성합니다.
C. EC2 인스턴스가 Auto Scaling 그룹의 일부이고 Application Load Balancer 뒤에 있는지 확인합니다. AWS WAF를 사용하여 위협에 대한 인바운드 웹 트래픽을 모니터링합니다. 웹 애플리케이션 서버용 보안 그룹과 DB 인스턴스용 보안 그룹을 생성합니다. 웹 응용 프로그램 서버 보안 그룹에서 들어오는 포트 3306만 허용하도록 RDS 보안 그룹을 구성합니다.
D. EC2 인스턴스가 Auto Scaling 그룹의 일부이고 Application Load Balancer 뒤에 있는지 확인합니다. AWS WAF를 사용하여 위협에 대한 인바운드 웹 트래픽을 모니터링합니다. 트래픽이 많은 경우 새 DB 인스턴스를 자동으로 생성하도록 Auto Scaling 그룹을 구성합니다. RDS DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306 인바운드만 허용하도록 RDS 보안 그룹을 구성합니다.
C
보안팀은 DB 인스턴스에 대한 '웹 기반' 공격을 방지하고 싶어 합니다. 이는 WAF를 사용한다면 적절한 대응이 됩니다. WAF는 웹 애플리케이션을 위한 방화벽으로 가용성에 영향을 주거나, 보안 위협이나, 리소스를 과도하게 사용하는 웹 공격 등으로부터 API를 보호하는 데 도움을 줍니다. 또한 서버와 DB 인스턴스에 각각 보안 그룹을 생성하고 MySQL 포트인 3306만 허용하여 DB 인스턴스만 접근할 수 있도록 하면 됩니다.
No16.
솔루션 설계자는 온프레미스에서 AWS로 영구 데이터베이스를 마이그레이션하기 위한 솔루션 설계를 담당합니다. 데이터베이스 관리자에 따르면 데이터베이스에는 64,000 IOPS가 필요합니다. 가능한 경우 데이터베이스 관리자는 단일 Amazon Elastic Block Store(Amazon EBS) 볼륨에서 데이터베이스 인스턴스를 호스팅 하려고 합니다.
데이터베이스 관리자의 요구 사항을 가장 효과적으로 충족시키는 옵션은 무엇입니까?
A. I3 I/O 최적화 제품군의 인스턴스를 사용하고 로컬 임시 스토리지를 활용하여 IOPS 요구 사항을 달성합니다.
B. Amazon Elastic Block Store(Amazon EBS) 프로비저닝된 IOPS SSD(io1) 볼륨이 연결된 Nitro 기반 Amazon EC2 인스턴스를 생성합니다. 64,000 IOPS를 갖도록 볼륨을 구성합니다.
C. Amazon Elastic File System(Amazon EFS) 볼륨을 생성하여 데이터베이스 인스턴스에 매핑하고 볼륨을 사용하여 데이터베이스에 필요한 IOPS를 달성합니다.
D. 두 개의 볼륨을 프로비저닝하고 각각에 32,000IOPS를 할당합니다. IOPS 요구 사항을 달성하기 위해 두 볼륨을 집계하는 논리 볼륨을 운영 체제 수준에서 만듭니다.
B
문제에선 단일 EBS 볼륨을 통해 DB 인스턴스를 호스팅 하려고 합니다. 이때 DB에는 64000IOPS가 필요하며, 이를 단일 EBS로 호스팅 하기 위해선 반드시 Nitro 기반의 EC2 인스턴스를 사용해야 합니다. Nitro 기반을 사용해야 IOPS SSD를 볼륨당 최소 100 IOPS에서 최대 64000 IOPS까지 프로비저닝이 가능하기 때문입니다. 기본 인스턴스에서는 최대 32000 IOPS만 지원하기에 단일로는 64000 IOPS를 커버할 수 없습니다.
No17.
솔루션 아키텍트는 AWS 클라우드에 배포할 새 애플리케이션에 대한 아키텍처를 생성하는 책임이 있습니다. Amazon EC2 온디맨드 인스턴스는 애플리케이션을 실행하는 데 사용되며 다른 가용 영역에서 자동으로 확장됩니다. 하루 종일 EC2 인스턴스는 주기적으로 확장 및 축소됩니다. 부하 분산은 ALB(Application Load Balancer)에서 처리합니다. 아키텍처는 분산된 세션 데이터를 관리할 수 있어야 합니다. 회사는 코드에 필요한 조정을 할 준비가 되어 있습니다.
설계에서 분산 세션 데이터 관리가 가능하도록 하는 솔루션 설계자의 책임은 무엇입니까?
A. Amazon ElastiCache를 사용하여 세션 데이터를 관리하고 저장합니다.
B. ALB의 세션 선호도(고정 세션)를 사용하여 세션 데이터를 관리합니다.
C. AWS Systems Manager의 Session Manager를 사용하여 세션을 관리합니다.
D. AWS Security Token Service(AWS STS)에서 GetSessionToken API 작업을 사용하여 세션을 관리합니다.
A
ElastiCache는 분산 세션 관리 확장성을 해결하고 개별 웹 서버에서 액세스할 수 있는 세션에 대한 공유 스토리지를 제공하기 위해 HTTP를 추상화할 수 있습니다. ElastiCache를 도입 시 많은 코드 수정이 필요하지만 문제의 회사에서는 코드 수정을 할 준비가 되어있기에 상관없습니다. 참고로 ElastiCache의 제품에는 복제를 지원하는 Redis와 복제를 지원하지 않는 Memcached가 있습니다.
B - 세션 선호도(Sticky Session)을 사용하면 개별 EC2 인스턴스를 세션 데이터에 긴밀하게 연결하게 되고, ALB에 추가 논리가 필요합니다. 만약 스케일인(축소)이 발생하면 개별 EC2 인스턴스에 저장된 세션 데이터는 파기됩니다.
No18.
여러 Amazon EC2 Linux 인스턴스는 계층적 디렉터리 구조가 필요한 애플리케이션을 실행하기 위해 VPC의 비즈니스에서 사용됩니다. 앱은 빠르고 동시에 공유 저장소에 액세스하고 쓸 수 있어야 합니다.
이것은 어떻게 이루어지나요?
A. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 각 EC2 인스턴스에서 탑재합니다.
B. Amazon S3 버킷을 생성하고 VPC의 모든 EC2 인스턴스에서 액세스를 허용합니다.
C. Amazon Elastic Block Store(Amazon EBS) 프로비저닝된 IOPS SSD(io1) 볼륨에 파일 시스템을 생성합니다. 볼륨을 모든 EC2 인스턴스에 연결합니다.
D. 각 EC2 인스턴스에 연결된 Amazon Elastic Block Store(Amazon EBS) 볼륨에 파일 시스템을 생성합니다. 다양한 EC2 인스턴스에서 Amazon Elastic Block Store(Amazon EBS) 볼륨을 동기화합니다.
A
문제의 키포인트는 '계층적 디렉터리 구조'입니다. EBS는 계층적이지 않고 블록으로 구성되어 있습니다. 즉, 각각의 항목은 계층적이지 않은 블록으로 저장됩니다. 또한 EFS는 여러 AZ의 클라이언트(인스턴스) 동시 액세스를 허용합니다. 하지만 다중 연결 EBS는 단일 AZ의 클라이언트만 허용합니다. 또한 EFS는 1000개의 동시 클라이언트를 지원하는 반면에 다중 연결 EBS는 16개만 지원합니다. 따라서 보기 C보다 A가 확장 가능한 솔루션입니다.
No19.
솔루션 설계자가 문서 관리 작업을 Amazon Web Services로 이전하는 중입니다. 워크로드는 공유 스토리지 파일 시스템 및 외부 데이터베이스에 7테라 바이트의 계약 문서를 저장하고 추적합니다. 대부분의 기록은 보관되고 궁극적으로 나중에 참조할 수 있도록 복구됩니다. 마이그레이션 중에는 애플리케이션을 업데이트할 수 없으며 스토리지 솔루션은 고가용성이어야 합니다. Amazon EC2의 Auto Scaling 그룹에 속한 웹 서버는 문서를 수집하고 저장합니다. Auto Scaling 그룹에는 최대 12개의 인스턴스가 있을 수 있습니다.
비용 효율성 측면에서 이러한 기준에 가장 적합한 옵션은 무엇입니까?
A. 공유 NFS 스토리지 시스템으로 사용할 향상된 네트워킹 최적화 EC2 인스턴스를 프로비저닝합니다.
B. S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지 클래스를 사용하는 Amazon S3 버킷을 생성합니다. Auto Scaling 그룹의 EC2 인스턴스에 S3 버킷을 탑재합니다.
C. AWS Transfer for SFTP 및 Amazon S3 버킷을 사용하여 SFTP 서버 엔드포인트를 생성합니다. SFTP 서버에 연결하도록 Auto Scaling 그룹의 EC2 인스턴스를 구성합니다.
D. EFS Standard-Infrequent Access(EFS Standard-IA) 스토리지 클래스를 사용하는 Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. Auto Scaling 그룹의 EC2 인스턴스에 파일 시스템을 탑재합니다.
D
AWS Transfer Family
는 AWS 스토리지 서비스 안팎으로 파일을 전송할 수 있는 보안 전송 서비스로 S3와 EFS의 스토리지에 대해 데이터 전송이 가능합니다. EFS는 확장성, 가용성 및 내구성이 매우 높은 서버리스 파일 시스템입니다. 또한 One Zone-IA 옵션을 통해 단일 AZ에 데이터를 저장하므로 추가 절감 옵션이 됩니다.
No20.
전자상거래 웹사이트를 위해 기업은 다계층 애플리케이션을 개발했습니다. 이 웹 사이트는 Amazon EC2 인스턴스에서 호스팅 되는 퍼블릭 서브넷 기반 Application Load Balancer, 퍼블릭 서브넷 기반 웹 계층 및 프라이빗 서브넷 기반 MySQL 클러스터를 사용합니다. MySQL 데이터베이스는 타사 공급자의 웹 사이트에서 제품 카탈로그 및 가격 정보를 가져와야 합니다. 솔루션 설계자의 목표는 운영 비용을 높이지 않고 보안을 최적화하는 계획을 개발하는 것입니다.
솔루션 설계자는 이러한 기준을 충족하기 위해 어떤 조치를 취해야 합니까?
A. VPC에 NAT 인스턴스를 배포합니다. NAT 인스턴스를 통해 모든 인터넷 기반 트래픽을 라우팅합니다.
B. 퍼블릭 서브넷에 NAT 게이트웨이를 배포합니다. 모든 인터넷 바인딩 트래픽을 NAT 게이트웨이로 보내도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
C. 인터넷 게이트웨이를 구성하고 VPC에 연결합니다. 인터넷 바인딩 트래픽을 인터넷 게이트웨이로 보내도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
D. 가상 프라이빗 게이트웨이를 구성하고 VPC에 연결합니다. 인터넷 바인딩 된 트래픽을 가상 프라이빗 게이트웨이로 보내도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
B
자주 나오는 문제 유형입니다. 여기서 반드시 알아야 할 점은 프라이빗 서브넷에선 NAT 게이트웨이를 사용하지 못한다는 것입니다. NAT 게이트웨이는 퍼블릭 서브넷에 연결되어 프라이빗 서브넷의 리소스가 인터넷에 액세스할 수 있도록 합니다. 또한 이는 한 방향으로만 작동하여 보안적으로도 우수합니다.
No21.
최근 한 기업에서 새로운 형태의 인터넷 연결 센서를 도입했습니다. 이 기업은 초당 대량의 데이터를 중앙 위치에 공급하기 위한 수천 개의 센서를 판매할 것으로 예상합니다. 솔루션 아키텍트는 엔지니어링 팀이 검사할 수 있도록 밀리초 응답으로 거의 실시간으로 데이터를 수집하고 저장하는 시스템을 개발해야 합니다.
솔루션 설계자는 어떤 솔루션을 권장해야 합니까?
A. Amazon SQS 대기열을 사용하여 데이터를 수집합니다. AWS Lambda 함수로 데이터를 소비한 다음 Amazon Redshift에 데이터를 저장합니다.
B. Amazon SQS 대기열을 사용하여 데이터를 수집합니다. AWS Lambda 함수로 데이터를 소비한 다음 Amazon DynamoDB에 데이터를 저장합니다.
C. Amazon Kinesis Data Streams를 사용하여 데이터를 수집합니다. AWS Lambda 함수로 데이터를 소비한 다음 Amazon Redshift에 데이터를 저장합니다.
D. Amazon Kinesis Data Streams를 사용하여 데이터를 수집합니다. AWS Lambda 함수로 데이터를 소비한 다음 Amazon DynamoDB에 데이터를 저장합니다.
D
가장 중요한 포인트는 '밀리초 응답'입니다. RedShift는 1초 미만의 응답을 지원하지만, DynamoDB는 밀리초의 응답을 지원합니다. 또한 문제는 '분석'을 원하는 것이 아닌 '수집 및 저장'을 원하고 있기에 더욱 DynamoDB가 적절합니다. 이때 실시간으로 데이터를 수집해야 하기에 AWS KDS를 사용한다면 알맞습니다.
No22.
비즈니스는 Amazon S3 버킷을 타사 공급자와 공유해야 합니다. 모든 항목은 버킷 소유자가 액세스할 수 있어야 합니다.
S3 버킷을 공유하려면 어떤 절차를 따라야 합니까?
A. 버킷을 요청자 지불 버킷으로 업데이트합니다.
B. 교차 출처 리소스 공유(CORS)를 활성화하도록 버킷을 업데이트합니다.
C. 사용자가 객체를 업로드할 때 버킷 소유자에게 모든 권한을 부여하도록 요구하는 버킷 정책을 생성합니다.
D. 사용자가 객체를 업로드할 때 버킷 소유자에게 모든 권한을 부여하도록 요구하는 IAM 정책을 생성합니다.
C
문제의 키포인트는 '타사 공급자와 공유'입니다. 이는 버킷 소유자와 공급자가 버킷에서 객체를 CRUD 할 수 있음을 의미합니다. 기본적으로 새로 생성된 객체에 대한 권한은 OBJECT OWNER로 제한되며 다음을 허용해야 합니다. BUCKET OWNER에 대한 액세스 - 객체 ACL "bucket-owner-full-control"을 통해 이를 수행 가능합니다.
B - CORS는 S3 정적 웹 사이트가 다른 출처로 리디렉션되는 경우 브라우저가 차단하는 보안 기능을 해결하기 위한 것입니다.
No23.
한 기업에서 143TB MySQL 데이터베이스를 AWS로 옮기려고 합니다. 목표는 Amazon Aurora MySQL을 플랫폼으로 계속 사용하는 것입니다. 조직은 100Mbps AWS Direct Connect 연결을 사용하여 Amazon VPC에 연결합니다.
다음 중 비즈니스 요구 사항을 가장 잘 충족하고 가장 적은 시간이 필요한 옵션은 무엇입니까?
A. Amazon S3용 게이트웨이 엔드포인트를 사용하십시오. 데이터를 Amazon S3로 마이그레이션합니다. 데이터를 Aurora로 가져옵니다.
B. Direct Connect 링크를 500Mbps로 업그레이드합니다. 데이터를 Amazon S3에 복사합니다. 데이터를 Aurora로 가져옵니다.
C. AWS Snowmobile을 주문하고 데이터베이스 백업을 복사합니다. AWS에서 데이터를 Amazon S3로 가져오도록 합니다. 백업을 Aurora로 가져옵니다.
D. 50TB AWS Snowball 디바이스 4개를 주문하고 여기에 데이터베이스 백업을 복사합니다. AWS에서 데이터를 Amazon S3로 가져오도록 합니다. 데이터를 Aurora로 가져옵니다.
D
가능하지만 500Mbps을 주문해야 하며, 계산을 해보면 25일이 좀 더 걸립니다. 시간적으로 좋지 못합니다.
C - Snowmobile은 페타바이트의 데이터 전송에 적합하므로, 이 상황에는 과도합니다.
No24.
기업은 웹 사이트의 정적 사진을 Amazon S3 버킷에 저장합니다. 권한이 있는 사용자만 Amazon S3 항목에 액세스할 수 있도록 권한이 지정되었습니다.
솔루션 설계자는 데이터 손실을 방지하기 위해 어떤 조치를 취해야 합니까? (2개를 선택하세요.)
A. S3 버킷에서 버전 관리를 활성화합니다.
B. S3 버킷에서 액세스 로깅을 활성화합니다.
C. S3 버킷에서 서버 측 암호화를 활성화합니다.
D. 객체를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 규칙을 구성합니다.
E. MFA 삭제를 사용하여 개체를 삭제하기 위해 다단계 인증을 요구합니다.
A,E
데이터 손실을 방지하기 위해서는 버전 관리를 활성화하여 S3 버킷에 대해 구/현재 버전으로 관리할 수 있도록 하여 현재 버전이 사라진다 하여도 복원이 가능합니다. MFA(다단계 인증)을 사용하여 여러 조건의 인증을 요구하여 삭제 및 손실을 방지합니다.
No25.
기업은 들어오는 통신을 처리하는 응용 프로그램을 유지 관리합니다. 그런 다음 이러한 메시지는 수십 개의 다른 앱과 마이크로서비스에 의해 몇 초 만에 요약됩니다.
통신량은 크게 변동하며 때로는 초당 100,000개 이상으로 정점을 찍습니다. 이 회사는 솔루션을 기본 인프라와 분리하여 확장성을 높이고자 합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. Amazon Kinesis Data Analytics에 대한 메시지를 유지합니다. 모든 응용 프로그램은 메시지를 읽고 처리합니다.
B. CPU 지표를 기반으로 EC2 인스턴스 수를 조정하는 Auto Scaling 그룹의 Amazon EC2 인스턴스에 애플리케이션을 배포합니다.
C. 단일 샤드를 사용하여 Amazon Kinesis Data Streams에 메시지를 씁니다. 모든 애플리케이션은 스트림에서 읽고 메시지를 처리합니다.
D. 하나 이상의 Amazon Simple Queue Service(Amazon SQS) 구독이 있는 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. 그러면 모든 애플리케이션이 대기열의 메시지를 처리합니다.
D
수십 개의 다른 앱/서비스에 메시지를 전송해야 합니다. 이때 초당 100,000개 이상의 통신량을 감당해야 하며, 확장성까지 겸하는 서비스가 필요합니다. 이를 위해선 SQS가 적합합니다. SQS의 표준 대기열은 API 작업당 거의 무제한의 초당 트랜잭션을 지원하기 때문입니다. SNS 또한 각 계정마다 100,000개의 표준 주제를 지원합니다.
A - KDA 서비스를 사용할 스트리밍 기능에 대하여 언급이 없습니다.
No26.
기업이 인프라를 온프레미스에서 AWS 클라우드로 이전하고 있습니다. 회사의 앱 중 하나는 DFSR(분산 파일 시스템 복제)을 활용하여 데이터 일관성을 유지하는 Windows 파일 서버 팜에 데이터를 저장합니다. 파일 서버 팜은 솔루션 설계자가 교체해야 합니다.
어떤 솔루션 아키텍트 서비스를 사용해야 합니까?
A. Amazon Elastic File System(Amazon EFS)
B. 아마존 FSx
C. 아마존 S3
D. AWS 스토리지 게이트웨이
B
Windows 기반 시스템에서는 FSx만 작동합니다. 참고로 AWS DataSync를 사용해 온프레미스에서 AWS Cloud FSx 서비스로 데이터를 이동할 수 있습니다.
A - EFS는 Linux 기반 서버 전용입니다.
D - Storage GW는 AWS Cloud와 온프레미스간의 S3를 인터페이스 하는 데 사용됩니다.
No27.
AWS에서 기업은 고성능 컴퓨팅(HPC) 워크로드를 운영합니다. 요구 사항은 밀접하게 연결된 노드 간 통신을 통해 낮은 네트워크 대기 시간과 높은 네트워크 처리량을 필요로 했습니다. Amazon EC2 인스턴스는 기본 구성으로 시작되며 계산 및 스토리지 기능에 맞게 적절하게 확장됩니다.
솔루션 설계자는 워크로드의 성능을 최적화하기 위해 무엇을 조언해야 합니까?
A. Amazon EC2 인스턴스를 시작하는 동안 클러스터 배치 그룹을 선택하십시오.
B. Amazon EC2 인스턴스를 시작하는 동안 전용 인스턴스 테넌시를 선택합니다.
C. Amazon EC2 인스턴스를 시작하는 동안 Elastic Inference 액셀러레이터를 선택합니다.
D. Amazon EC2 인스턴스를 시작하는 동안 필요한 용량 예약을 선택합니다.
A
밀접하게 연결된 노드 간 통신'의 표현은 클러스터 배치 그룹이 필요하다는 의미입니다. 클러스터 배치 그룹은 단일 가용 영역 내의 인스턴스를 논리적으로 그룹화하여 네트워크 지연 시간을 짧게 하는 이점이 있습니다. 배치 그룹 사용법은 가용 영역 내에서 서로 가깝게 인스턴스를 묶습니다.
No28.
비즈니스에는 처리할 페이로드가 포함된 메시지를 보내는 응용 프로그램과 페이로드가 포함된 메시지를 받는 응용 프로그램의 두 가지 응용 프로그램이 있습니다. 조직은 두 앱 간의 통신을 관리하기 위해 Amazon Web Services(AWS) 솔루션을 만들고자 합니다. 발신자 프로그램은 매시간 약 1,000개의 메시지를 보낼 수 있습니다. 통신 처리에는 최대 2일이 소요될 수 있습니다. 메시지가 처리되지 않으면 후속 메시지 처리를 방해하지 않도록 보관해야 합니다.
어떤 솔루션이 이러한 매개변수를 충족하고 운영 효율성 측면에서 가장 최적입니까?
A. Redis 데이터베이스를 실행하는 Amazon EC2 인스턴스를 설정합니다. 인스턴스를 사용하도록 두 애플리케이션을 구성합니다. 메시지를 각각 저장, 처리 및 삭제합니다.
B. Amazon Kinesis 데이터 스트림을 사용하여 발신자 애플리케이션에서 메시지를 수신합니다. 처리 애플리케이션을 Kinesis 클라이언트 라이브러리(KCL)와 통합합니다.
C. 발신자 및 프로세서 애플리케이션을 Amazon Simple Queue Service(Amazon SQS) 대기열과 통합합니다. 처리에 실패한 메시지를 수집하도록 배달 못한 편지 대기열을 구성합니다.
D. 처리할 알림을 수신하려면 처리 애플리케이션을 Amazon Simple Notification Service(Amazon SNS) 주제에 등록합니다. SNS 주제에 쓸 발신자 애플리케이션을 통합합니다.
C
문제의 키포인트는 '메시지가 처리되지 않으면 후속 메시지 처리를 방해하지 않도록 보관'입니다. 이를 해결할 수 있는 서비스는 SQS입니다. SQS는 대기열이라는 개념을 사용하여 처리되지 않은 메시지에 대해 보관을 하여 파기되지 않도록 합니다.
No29.
기업은 단일 지역의 AWS에서 기업 콘텐츠 관리 플랫폼을 호스팅 하지만 플랫폼이 여러 지역에서 작동해야 합니다. 조직은 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터에서 마이크로서비스를 운영합니다. EKS 클러스터는 Amazon S3에서 항목을 저장하고 검색하는 역할을 합니다. 또한 EKS 클러스터는 Amazon DynamoDB를 활용하여 정보를 저장하고 검색합니다.
솔루션 설계자는 여러 지역에 플랫폼을 배포하기 위해 어떤 작업을 함께 수행해야 합니까? (2개를 선택하세요.)
A. 교차 리전 복제로 EKS 클러스터를 복제합니다.
B. Amazon API Gateway를 사용하여 EKS 클러스터에 대한 글로벌 엔드포인트를 생성합니다.
C. AWS Global Accelerator 엔드포인트를 사용하여 트래픽을 여러 리전에 분산합니다.
D. Amazon S3 액세스 포인트를 사용하여 여러 리전의 객체에 대한 액세스 권한을 부여합니다. DynamoDB 가속기(DAX)를 구성합니다. DAX를 관련 테이블에 연결합니다.
E. 다른 리전에 EKS 클러스터와 S3 버킷을 배포합니다. 두 S3 버킷에서 교차 리전 복제를 구성합니다. DynamoDB에 대한 전역 테이블을 켭니다.
C,E
플랫폼을 단일 지역에서 여러 지역으로 작동하도록 요구하고 있습니다. Global Accelerator는 ELB의 도움으로 EKS를 사용해 다중 지역 상태 비저장 애플리케이션을 제공합니다. 이때 데이터의 지속성이 필요한 워크로드의 경우 DynamoDB 글로벌 테이블, AWS Aurora 글로벌 데이터베이스 및 AWS S3 교차 리전 복제와 같은 기능에 의존이 가능합니다.
B - AWS API GW에는 글로벌 엔드포인트 개념이 존재하지 않습니다.
참고 - https://aws.amazon.com/blogs/containers/operating-a-multi-regional-stateless-application-using-amazon-eks/
No30.
기업은 10.10.1.0/24의 CIDR 블록으로 프로비저닝된 VPC를 사용합니다. 지속적인 확장으로 인해 이 블록의 IP 주소 공간이 곧 소모될 수 있습니다. 솔루션 설계자는 VPC의 IP 주소 용량을 확장해야 합니다.
다음 중 운영 오버헤드가 가장 적은 이 기준을 충족하는 방법은 무엇입니까?
A. 새 VPC를 생성합니다. 더 큰 CIDR 블록을 연결합니다.
B. 10.10.2.0/24의 보조 CIDR 블록을 VPC에 추가합니다.
C. 기존 VPC CIDR 블록의 크기를 10.10.1.0/24에서 10.10.1.0/16으로 조정합니다.
D. CIDR 블록이 10.10.1.0/16인 새 VPC와 VPC 피어링을 설정합니다.
B
VPC에 다른 IPv4 CIDR 블록을 추가하는 것이 가능하며, 운영 오버헤드가 가장 적도록 하는 방법입니다.
A - 옳은 방식이지만 B에 비교해 운영 오버헤드가 높습니다.
C - 불가능한 방식입니다.
참고 - https://docs.aws.amazon.com/vpc/latest/userguide/working-with-vpcs.html#add-ipv4-cidr
No31.
기업은 ELB Application Load Balancer를 통해 라우팅 되는 Amazon EC2 인스턴스에서 웹사이트를 호스팅 합니다. DNS는 Amazon Route 53을 통해 처리됩니다. 회사는 원래 웹사이트를 사용할 수 없게 된 경우 사용자가 연락할 수 있는 메시지, 전화번호 및 이메일 주소가 포함된 백업 웹사이트를 구축하려고 합니다.
이 솔루션을 어떻게 구현해야 합니까?
A. 백업 웹사이트에 Amazon S3 웹사이트 호스팅을 사용하고 Route 53 장애 조치 라우팅 정책을 사용합니다.
B. 백업 웹사이트에 Amazon S3 웹사이트 호스팅을 사용하고 Route 53 지연 라우팅 정책을 사용합니다.
C. 다른 AWS 리전에 애플리케이션을 배포하고 장애 조치 라우팅을 위해 ELB 상태 확인을 사용합니다.
D. 다른 AWS 리전에 애플리케이션을 배포하고 기본 웹 사이트에서 서버 측 리디렉션을 사용합니다.
A
백업 웹사이트를 구축하려 합니다. 이때 이 웹사이트엔 정적 콘텐츠로 구성된 메시지, 전화번호 및 이메일 주소가 있습니다. 때문에 S3를 사용하는 것은 적절합니다. S3 통해 웹사이트를 호스팅하고 Route 53 장애 조치 라우팅 정책을 생성해 기존 웹사이트가 다운될 경우 트래픽을 백업된 S3 웹사이트로 리디렉션합니다.
No32.
회사의 사내 비즈니스 프로그램은 매일 수백 개의 파일을 생성합니다. 이러한 파일은 SMB 파일 공유에 보관되며 짧은 대기 시간으로 애플리케이션 서버에 연결해야 합니다. 새로운 비즈니스 정책에 따라 애플리케이션에서 생성한 모든 파일은 AWS로 이동해야 합니다. AWS에 대한 VPN 연결이 이미 설정되었습니다.
애플리케이션 개발 팀은 AWS로 마이그레이션하기 위해 애플리케이션 코드를 수정하는 데 필요한 시간이 부족합니다.
애플리케이션이 Amazon Web Services(AWS)로 파일을 전송할 수 있도록 하려면 솔루션 설계자가 어떤 서비스를 제안해야 합니까?
A. Amazon Elastic File System(Amazon EFS)
B. Windows 파일 서버용 Amazon FSx
C. AWS 스노우볼
D. AWS 스토리지 게이트웨이
D
먼저 OS에 대한 언급이 따로 없는 경우 기본값은 Linux(Windows일 경우 확실하게 명시됨)입니다. 현재 파일을 AWS로 마이그레이션 하기를 원하기 때문에 Storage GW를 사용하는 것은 적절합니다. FSx 또한 위를 적절하게 해결이 가능하지만, FSx 서비스는 Windows에 적합한 서비스이므로 Storage GW가 더 알맞습니다. 또한 FSx는 낮은 대기 시간의 VPN에서만 작동합니다. 문제의 VPN은 이 요구 사항을 충족하지 않으며, 캐시가 있는 온프레미스 Stroage GW가 추가로 필요합니다. 마지막으로 FSx는 엄밀히 따져 'Cloud 파일 시스템'에 가까우며, AWS Storage GW는 온프레미스에 적합합니다.
No33.
기업은 WebSocket을 사용하여 온프레미스 서버에서 라이브 채팅 애플리케이션을 호스팅 합니다. 회사는 애플리케이션을 Amazon Web Services(AWS)로 이전하려고 합니다.
애플리케이션에 대한 트래픽은 고르지 않으며 회사는 미래에 갑자기 급증할 더 많은 트래픽을 예상합니다.
비즈니스에는 최소한의 서버 유지 관리 또는 정교한 용량 계획이 필요한 확장성이 뛰어난 솔루션이 필요합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. Amazon DynamoDB 테이블을 데이터 저장소로 사용하여 Amazon API Gateway 및 AWS Lambda를 사용합니다. 프로비저닝된 용량에 대해 DynamoDB 테이블을 구성합니다.
B. Amazon DynamoDB 테이블을 데이터 저장소로 사용하여 Amazon API Gateway 및 AWS Lambda를 사용합니다. 온디맨드 용량에 대해 DynamoDB 테이블을 구성합니다.
C. Amazon DynamoDB 테이블을 데이터 저장소로 사용하여 Auto Scaling 그룹의 Application Load Balancer 뒤에서 Amazon EC2 인스턴스를 실행합니다. 온디맨드 용량에 대해 DynamoDB 테이블을 구성합니다.
D. Amazon DynamoDB 테이블을 데이터 저장소로 사용하여 Auto Scaling 그룹의 Network Load Balancer 뒤에서 Amazon EC2 인스턴스를 실행합니다. 프로비저닝된 용량에 대해 DynamoDB 테이블을 구성합니다.
B
문제의 키포인트는 '고르지 않은 트래픽' 및 '최소 서버 유지 관리'입니다. 이는 프로비저닝 대신 온디맨드의 DynamoDB(Auto Scaling)이 더 적합합니다. 또한 API GW 및 Lambda를 사용해 유지 관리를 최소화합니다.
WebSocket API를 구축하려면 WebSocket 프로토콜의 기반이 되는 영구 연결을 관리하는 호스트 집합이 필요합니다. 하지만, AWS API GW를 사용하면 더 이상 필요하지 않습니다. API GW는 클라이언트와 서비스 간의 연결을 처리합니다.
No34.
비즈니스에서 수 기가바이트의 데이터를 AWS로 마이그레이션하려고 합니다. 오프라인 데이터는 선박에서 얻습니다. 조직은 데이터를 전송하기 전에 복잡한 변환을 수행하려고 합니다.
솔루션 설계자는 이 마이그레이션을 위해 어떤 Amazon Web Services(AWS) 서비스를 제안해야 합니까?
A. AWS 스노우볼
B. AWS 스노우모빌
C. AWS Snowball Edge 스토리지 최적화
D. AWS Snowball Edge 컴퓨팅 최적화
D
문제의 키포인트는 '복잡한 변환'입니다. AWS로 전송하기 전에 데이터 처리를 위해 강력한 컴퓨팅 및 고속 스토리지에 액세스해야 하는 사례에는 Snowball Edge Compute Optimized(컴퓨팅 최적화)를 사용하는 것이 좋습니다. 또한 선박에서 데이터를 가져온다고 하기에 이는 매우 적절합니다. Snowball Edge 디바이스는 간헐적 연결(제조, 산업, 운송 등) 환경 또는 매우 먼 위치(군사, 해양 등)에서 사용할 수 있기 때문입니다.
추가 설명 : 스토리지 최적화 vs 컴퓨팅 최적화 -> Storage Optimized는 수십 테라바이트에서 페타 바이트의 데이터를 AWS로 안전하고 신속하게 전송해야 하는 경우 최적의 선택입니다. 또한 IoT 데이터 집계 및 변환과 같은 범용 분석을 실행하는 데 적합합니다.
No35.
사용자는 쿼리에서 최대 100밀리초의 지연을 예상하는 다양한 고객이 사용하는 MySQL 데이터베이스를 소유하고 있습니다. 항목이 데이터베이스에 기록되면 거의 수정되지 않습니다. 클라이언트는 한 번에 최대 하나의 레코드에 액세스할 수 있습니다. 증가하는 고객 요구로 인해 데이터베이스 액세스가 엄청나게 확장되었습니다. 결과적으로 결과 부하는 사용 가능한 가장 값비싼 하드웨어의 용량을 빠르게 능가합니다. 사용자는 AWS로 이동하기를 원하며 새로운 데이터베이스 시스템을 실험할 준비가 되어 있습니다.
데이터베이스 로드 문제를 해결하고 거의 무한한 미래 확장성을 제공하는 솔루션은 무엇입니까?
A. 아마존 RDS
B. Amazon DynamoDB
C. 아마존 레드시프트
D. AWS 데이터 파이프라인
B
문제의 마지막에 '새로운 데이터 베이스 시스템을 실험할 준비가 되어있다'가 언급되어 있습니다. 이는 현재 회사의 데이터베이스는 MySQL이지만 NoSQL의 가능성 또한 열려있다는 말입니다. 때문에 문제의 요청에는 RDS보단 DynamoDB가 더 어울립니다. 이유는 DynamoDB는 모든 규모에서 한자리 밀리초 성능을 제공하는 키/값 및 문서 데이터베이스입니다. 이는 하루에 10조 개 이상의 요청을 처리할 수 있으며 초당 최대 2천만 개 이상의 요청을 지원 가능합니다. 또한 무한한 확장성까지 제공합니다.
댓글과 공감 클릭은 더 좋은 글을 위한 응원이 됩니다.
관련글
'Cloud > AWS SAA 모의시험' 카테고리의 다른 글
AWS SAA 모의 시험 5th #2 문제풀이 (23) | 2022.08.05 |
---|---|
AWS SAA 모의 시험 5th #2 (6) | 2022.08.05 |
AWS SAA 모의 시험 5th #1 (3) | 2022.08.05 |
AWS SAA 모의 시험 4th #4 문제풀이 (17) | 2022.08.05 |
AWS SAA 모의 시험 4th #3 문제풀이 (1) | 2022.08.05 |