No1.
매달 기업은 Amazon S3에 200GB의 데이터를 보관합니다. 매월 말에 회사는 이 데이터를 분석하여 전월 동안 각 판매 영역에서 판매된 물건 수를 계산해야 합니다.
비즈니스에 가장 비용 효율적인 옵션은 어떤 분석 접근 방식입니까?
A. Amazon Elasticsearch Service(Amazon ES) 클러스터를 생성합니다. Amazon ES에서 데이터를 쿼리합니다. Kibana를 사용하여 데이터를 시각화합니다.
B. AWS Glue 데이터 카탈로그에 테이블을 생성합니다. Amazon Athena를 사용하여 Amazon S3의 데이터를 쿼리합니다. Amazon QuickSight에서 데이터를 시각화합니다.
C. Amazon EMR 클러스터를 생성합니다. Amazon EMR을 사용하여 데이터를 쿼리하고 결과를 Amazon S3에 저장합니다. Amazon QuickSight에서 데이터를 시각화합니다.
D. Amazon Redshift 클러스터를 생성합니다. Amazon Redshift에서 데이터를 쿼리하고 결과를 Amazon S3에 업로드합니다. Amazon QuickSight에서 데이터를 시각화합니다.
모든 보기의 서비스들은 모두 분석에 적합합니다. 하지만, 비용 효율적인 옵션을 위해서는 B가 가장 적절합니다. Glue는 서버리스 서비스로 한달에 한번만 실행할 경우 비용 절감이 가능합니다. Athena 또한 서버리스로 맞춤 인프라가 필요하지 않습니다. 따라서 Athena를 통해 S3 데이터를 직접 쿼리하는 것은 효율적입니다. QuickSight는 Athena와 S3와 통합이 가능합니다. 마지막으로 세가지의 서비스는 모두 서버리스로 비용 효율적인 옵션에 적합합니다.
A. Amazon Elasticsearch Service(Amazon ES)는 AWS 클라우드에서 손쉽게 도메인을 만들고, Elasticsearch 클러스터를 쉽게 배포, 운영 및 조정할 수 있는 관리형 서비스입니다. Elasticsearch는 로그 분석, 실시간 애플리케이션 모니터링, 클릭 스트림 분석 가튼 사용 사례를 위한 인기 있는 오픈 소스 검색 및 분석 엔진입니다.
C - EMR은 빅데이터/Hadoop 클러스터 생성에 사용합니다.
No2.
비즈니스는 Amazon EC2 인스턴스를 사용하여 API 기반 인벤토리 보고 애플리케이션을 운영합니다. 이 프로그램은 Amazon DynamoDB 데이터베이스를 사용하여 데이터를 저장합니다. 회사의 유통 센터는 API와 통신하는 온프레미스 배송 애플리케이션을 사용하여 배송 라벨을 생성하기 전에 인벤토리를 업데이트합니다. 매일 조직은 애플리케이션 중단으로 인해 트랜잭션이 누락되는 것을 목격했습니다.
솔루션 설계자는 애플리케이션의 탄력성을 높이기 위해 무엇을 제안해야 합니까?
A. 로컬 데이터베이스에 쓰도록 배송 애플리케이션을 수정합니다.
B. AWS Lambda를 사용하여 서버리스를 실행하도록 애플리케이션 API 수정
C. EC2 인벤토리 애플리케이션 API를 호출하도록 Amazon API Gateway를 구성합니다.
D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 인벤토리 업데이트를 보내도록 애플리케이션을 수정합니다.
문제에서 애플리케이션의 중단 원인에 대해서 정확한 정보가 존재하지 않으며, 트랜잭션 누락으로 인해서 데이터가 소실된 상태입니다. 여기서 SQS를 사용한다면, 대기열을 사용하여서 트랜잭션이 누락된 상태에서도 데이터가 소실되는 것을 방지할 수 있는 탄력성을 얻을 수 있다.
No3.
미디어 스트리밍 회사는 실시간 데이터를 수집하여 디스크에 최적화된 데이터베이스 시스템에 저장합니다. 회사는 예상 처리량을 얻지 못하고 있으며 데이터 복제를 사용하여 더 빠르게 수행하고 고가용성을 제공하는 인메모리 데이터베이스 스토리지 솔루션을 원합니다.
솔루션 설계자는 어떤 데이터베이스를 권장해야 합니까?
A. MySQL 용 Amazon RDS
B. PostgreSQL 용 Amazon RDS.
C. Redis 용 Amazon ElastiCache
D. Memcached 용 Amazon ElastiCache
문제의 키포인트는 '스트리밍 회사의 실시간 데이터' 및 '데이터 복제를 통해 고가용성을 제공하는 인메모리 DB'입니다. 먼저 Redis를 사용하면 자동 장애 조치가 포함된 다중 AZ, 읽기 확장 및 고가용성을 위한 읽기 전용 복제본을 얻을 수 있습니다. 또한 ElastiCache를 사용하여 인기 있는 설정, 실행 및 확장을 통해 데이터 처리 성능을 올릴 수 있습니다.
D - Memcached는 Redis와 마찬가지로 인메모리 캐시에 적합하지만, Redis만 데이터 복제가 가능합니다.
No4.
솔루션 설계자는 AWS에 배포되는 새 애플리케이션을 위한 클라우드 아키텍처를 설계하고 있습니다. 처리할 작업 수에 따라 필요에 따라 애플리케이션 노드를 추가 및 제거하면서 프로세스가 병렬로 실행되어야 합니다. 프로세서 응용 프로그램은 상태 비저장입니다. 솔루션 설계자는 애플리케이션이 느슨하게 결합되고 작업 항목이 영구적으로 저장되도록 해야 합니다.
솔루션 설계자는 어떤 디자인을 사용해야 합니까?
A. 처리해야 하는 작업을 보낼 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.
B. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. Auto Scaling 그룹의 scaling 정책을 설정하여 네트워크 사용량에 따라 노드를 추가 및 제거합니다.
C. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.
D. 처리해야 하는 작업을 보낼 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.
문제의 키포인트는 '처리할 작업 수에 따라' 및 '느슨하게 결합된'입니다. 이를 만족시키는 서비스에는 SQS가 이상적입니다. SQS를 사용하면 대기열에서 대기 중인 작업 수를 기반으로 동적 조정을 사용할 수 있도록 구성할 수 있습니다. 이에 대해 Auto Scaling Group의 설정을 'SQS의 항목 수 기반의 확장 정책'으로 지정한다면 완벽합니다.
No5.
한 회사는 최근 Amazon EC2 인스턴스의 운영 체제 버전, 패치 및 설치된 소프트웨어에 대한 정보를 중앙 집중화하기 위해 새로운 감사 시스템을 배포했습니다. 솔루션 설계자는 EC2 Auto Scaling 그룹을 통해 프로비저닝된 모든 인스턴스가 시작 및 종료되는 즉시 감사 시스템에 보고서를 성공적으로 전송하도록 해야 합니다.
어떤 솔루션이 이러한 목표를 가장 효율적으로 달성합니까?
A. 예약된 AWS Lambda 함수를 사용하고 모든 EC2 인스턴스에서 원격으로 스크립트를 실행하여 데이터를 감사 시스템으로 보냅니다.
B. EC2 Auto Scaling 수명 주기 후크를 사용하여 인스턴스가 시작되고 종료될 때 감사 시스템에 데이터를 보내는 사용자 지정 스크립트를 실행합니다.
C. EC2 Auto Scaling 시작 구성을 사용하여 사용자 데이터를 통해 사용자 지정 스크립트를 실행하여 인스턴스가 시작되고 종료될 때 감사 시스템에 데이터를 보냅니다.
D. 인스턴스 운영 체제에서 사용자 정의 스크립트를 실행하여 감사 시스템에 데이터를 보냅니다. 인스턴스 시작 및 종료 시 EC2 Auto Scaling 그룹에서 실행할 스크립트를 구성합니다.
문제의 요구 사항은 EC2 인스턴스의 시작 및 종료 작업에 대해 감사 시스템을 구성하는 것입니다. 이를 위해서는 EC2 Auto Scaling의 LifeCycle Hooks(수명 주기 후크)를 사용하면 됩니다. 후크의 원리는 간단합니다. 후크를 통해 Auto Scaling Group(ASG)은 Auto Scaling 인스턴스 수명 주기의 이벤트(시작/종료 등)를 인식하고 해당 수명 주기 이벤트가 발생할 때 사용자 지정 작업을 수행할 수 있습니다. 수명 주기 후크는 인스턴스가 다음 상태로 전환되기 전에 수명 주기 작업을 완료하기 위해 지정된 시간(기본 1시간)을 제공합니다.
A - Lambda를 구성 관리 도구로 사용할 수 없습니다.
C - Userdata를 사용하면 생성 시간에만 EC2에서 명령을 실행할 수 있으며, 종료되는 동안은 명령을 실행할 수 없습니다.
D - EC2에서 ASG가 스크립트를 실행하도록 명령할 수 없습니다.
No6.
회사에는 다음 달 내에 AWS 클라우드로 이동해야 하는 온프레미스에 저장된 150TB의 아카이브 된 이미지 데이터가 있습니다. 회사의 현재 네트워크 연결은 야간에만 이 목적으로 최대 100Mbps의 업로드를 허용합니다.
이 데이터를 이동하고 마이그레이션 기한을 맞추기 위한 가장 비용 효율적인 메커니즘은 무엇입니까?
A. AWS Snowmobile을 사용하여 데이터를 AWS로 배송합니다.
B. 여러 AWS Snowball 디바이스를 주문하여 데이터를 AWS로 배송합니다.
C. Amazon S3 Transfer Acceleration을 활성화하고 데이터를 안전하게 업로드합니다.
D. Amazon S3 VPC 엔드포인트를 생성하고 VPN을 설정하여 데이터를 업로드합니다.
네트워크 백본에 제한된 대역폭이 있는 경우 여러 Snowball을 사용해 데이터를 점진적으로 마이그레이션 하도록 고려해야 합니다. Snowball 서비스는 물리적 스토리지 디바이스를 사용해 인터넷보다 빠르게 S3 및 데이터 스토리지 위치에 대용량 데이터를 전송 가능합니다. Snowball 디바이스는 AWS KMS로 보호되는 물리적으로 견고한 디바이스입니다. S3 Transfer Acceleration도 적절한 대안이 될 수 있지만 비용 효율성을 따져봤을 때 Snowball이 적합합니다.
A - Snowmobile은 수백 Gb/s의 처리량을 보장하는 고속 백본 사용 상황이나, PB(페타바이트)의 대규모 데이터를 마이그레이션하는데 적합하므로 문제의 150TB 데이터를 100Mbps 속도로 전송하는데는 적절하지 못합니다.
D - 시간 여유와 대역폭 상황이 좋은 편은 아니기에 인터넷을 통해 전송하는 것은 적절하지 못합니다.
No7.
마케팅 회사는 Amazon S3 버킷을 사용하여 통계 연구를 위한 CSV 데이터를 저장합니다. Amazon EC2 인스턴스에서 실행되는 애플리케이션이 S3 버킷에 저장된 CSV 데이터를 올바르게 처리하려면 권한이 필요합니다.
EC2 인스턴스의 S3 버킷에 대한 가장 안전한 액세스를 제공하는 단계는 무엇입니까?
A. 리소스 기반 정책을 S3 버킷에 연결합니다.
B. S3 버킷에 대한 특정 권한이 있는 애플리케이션의 IAM 사용자를 생성합니다.
C. IAM 역할을 EC2 인스턴스 프로파일에 대한 최소 권한 권한과 연결합니다.
D. API 호출에 사용할 인스턴스의 애플리케이션을 위해 EC2 인스턴스에 AWS 자격 증명을 직접 저장합니다.
인스턴스에서 실행되는 애플리케이션에게는 올바른 권한이 필요한 상태이며, IAM을 통한 적절한 역할을 연결한다면 좋은 솔루션이 될 수 있습니다.
A - S3에 대한 적절한 대안이 될 수 있지만, EC2 인스턴스를 리소스 기반 정책의 보안 주체로 설정할 수 없습니다.
No8.
Amazon EC2 인스턴스 집합에서 기업은 교육 사이트를 제공합니다. 이 회사는 웹에서 수백 개의 교육 비디오를 포함하는 새로운 과정이 일주일 안에 제공되면 엄청난 인기를 얻을 것으로 예측합니다.
솔루션 설계자는 예측된 서버 로드를 최소로 유지하기 위해 무엇을 해야 합니까?
A. Redis 용 Amazon ElastiCache에 비디오를 저장합니다. ElastiCache API를 사용하여 비디오를 제공하도록 웹 서버를 업데이트하십시오.
B. 비디오를 Amazon Elastic File System(Amazon EFS)에 저장합니다. 웹 서버가 EFS 볼륨을 탑재할 사용자 데이터 스크립트를 생성합니다.
C. 비디오를 Amazon S3 버킷에 저장합니다. 해당 S3 버킷의 원본 액세스 ID(OAI)를 사용하여 Amazon CloudFront 배포를 생성합니다. OAI에 대한 Amazon S3 액세스를 제한합니다.
D. 비디오를 Amazon S3 버킷에 저장합니다. S3 버킷에 액세스할 AWS Storage Gateway 파일 게이트웨이를 생성합니다. 파일 게이트웨이를 탑재할 웹 서버용 사용자 데이터 스크립트를 생성합니다.
제공하는 콘텐츠에 대한 액세스를 제한하려면 S3의 버킷을 CloudFront를 배포 시 이 배포의 오리진(원본)을 초기 설정할 때 모든 사람에게 버킷의 파일을 읽을 수 있는 권한을 부여하면 됩니다.
이를 통하면 누구나 CloudFront 혹은 S3의 URL을 통해 파일에 액세스가 가능해집니다.
보기에 보안을 위해 'OAI에 대한 Amazon S3 액세스를 제한합니다.'라는 문구가 있는데, CloudFront는 S3의 URL을 노출하지 않습니다.
그러면 사용자가 S3 버킷에서 직접 액세스하지 않고 CloudFront를 통해서만 파일에 액세스 할 수 있습니다.
No9.
Amazon Elastic Block Store(Amazon EBS) 볼륨은 미디어 조직에서 비디오 자료를 저장하는 데 사용합니다. 특정 비디오 파일이 인기를 얻었고 현재 전 세계에서 많은 사람들이 이 파일을 보고 있습니다. 결과적으로 비용이 증가했습니다.
사용자 접근성을 위태롭게 하지 않으면서 비용을 절감할 수 있는 단계는 무엇입니까?
A. EBS 볼륨을 프로비저닝된 IOPS(PIOPS)로 변경합니다.
B. 비디오를 Amazon S3 버킷에 저장하고 Amazon CloudFront 배포를 생성합니다.
C. 비디오를 여러 개의 작은 세그먼트로 분할하여 사용자가 요청된 비디오 세그먼트로만 라우팅 되도록 합니다.
D. 각 리전에서 Amazon S3 버킷을 지우고 사용자가 가장 가까운 S3 버킷으로 라우팅 되도록 동영상을 업로드합니다.
CloudFront의 기본적인 사용 사례
동일한 데이터에 계속해서 액세스하는 것에 대해서 문제가 나올 때마다 CloudFront를 생각하면 됩니다.
비슷한 예로 동일한 DB에 액세스라면 ElastiCache가 적합합니다.
No10.
기업에는 관리 및 생산이라는 레이블이 붙은 두 개의 가상 사설 클라우드(VPC)가 있습니다. 관리 VPC는 고객 게이트웨이를 통해 VPN을 사용하여 데이터 센터의 단일 장치에 연결합니다. 프로덕션 VPC는 가상 프라이빗 게이트웨이를 통해 두 개의 AWS Direct Connect 연결을 통해 AWS에 연결됩니다. 관리 및 프로덕션 VPC는 모두 단일 VPC 피어링 연결을 통해 서로 통신합니다.
아키텍처의 단일 실패 지점을 최소화하기 위해 솔루션 설계자는 무엇을 해야 합니까?
A. 관리 VPC와 프로덕션 VPC 간에 VPN 세트를 추가합니다.
B. 두 번째 가상 프라이빗 게이트웨이를 추가하고 관리 VPC에 연결합니다.
C. 두 번째 고객 게이트웨이 장치에서 관리 VPC로 두 번째 VPN 세트를 추가합니다.
D. 관리 VPC와 프로덕션 VPC 간에 두 번째 VPC 피어링 연결을 추가합니다.
문제에선, 현재 관리 VPC가 고객 게이트웨이를 통해 단일 장치에 하나만 연결되어 있다. 만약 고객 게이트웨이가 손상이 되는 상황을 막기 위해서는 또 하나의 DR(재해 복구)용 VPC - 게이트웨이 세트를 생성해 줘야 합니다.
A - 이미 VPC 피어링이 있는 경우 VPN을 통한 중복 메커니즘을 생성할 필요가 없습니다.
B - 가상 프라이빗 게이트웨이는 일대 일 매칭으로 VPC에 연결이 가능하기 때문에 2개 이상 연결할 수 없습니다.
D - VPC와 VPC의 쌍은 하나의 VPC Peering만 가질 수 있습니다.
둘은 게이트웨이와 마찬가지로 1:1 관계이다
No11.
기업은 Amazon S3를 사용하여 민감한 데이터를 저장할 준비가 되어 있습니다. 규정 준수를 위해 데이터를 암호화해야 합니다. 암호화 키 사용에 대한 감사가 필요합니다. 매년 키를 교체해야 합니다.
어떤 솔루션이 이러한 매개변수를 충족하고 운영 효율성 측면에서 가장 최적입니까?
A. 고객 제공 키를 사용한 서버 측 암호화(SSE-C)
B. Amazon S3 관리형 키를 사용한 서버 측 암호화(SSE-S3)
C. 수동 교체가 있는 AWS KMS(SSE-KMS) 고객 마스터키(CMK)를 사용한 서버 측 암호화
D. 자동 교체 기능이 있는 AWS KMS(SSE-KMS) 고객 마스터키(CMK)를 사용한 서버 측 암호화
매년 키를 교체해야 하며, 운영 효율성 측면에서 가장 최적이라는 문구가 포인트입니다. 때문에 자동 교체 기능을 사용하는 것이 적절합니다. 고객 관리형 키에 대한 자동 키 교체를 활성화하면 AWS KMS는 매년 새로운 암호화 자료를 생성하고, 이전 자료를 영구적으로 저장합니다.
No12.
Amazon EC2 인스턴스에서 기업은 일시적인 트랜잭션 데이터를 생성하는 애플리케이션을 개발하고 있습니다. 애플리케이션에는 조정 가능하고 일관된 IOPS를 제공할 수 있는 데이터 스토리지에 대한 액세스가 필요합니다.
솔루션 설계자는 어떤 권장 사항을 제시해야 합니까?
A. 처리량 최적화 HDD(st1) 루트 볼륨 및 Cold HDD(sc1) 데이터 볼륨으로 EC2 인스턴스를 프로비저닝합니다.
B. 루트 및 데이터 볼륨 역할을 할 처리량 최적화 HDD(st1) 볼륨으로 EC2 인스턴스를 프로비저닝합니다.
C. 범용 SSD(gp2) 루트 볼륨 및 프로비저닝된 IOPS SSD(io1) 데이터 볼륨으로 EC2 인스턴스를 프로비저닝합니다.
D. 범용 SSD(gp2) 루트 볼륨으로 EC2 인스턴스를 프로비저닝합니다. Amazon S3 버킷에 데이터를 저장하도록 애플리케이션을 구성합니다.
문제의 키포인트는 '일관된 IOPS'입니다. 일관된 IOPS를 보장받기 위해서는 IOPS SSD io1/io2 볼륨을 사용해야 합니다. 이는 처리량에 최적화(HDD)보다는 일관된 성능(io1/io2)을 요구하기 때문입니다.
EBS(Elastic Block Store)은사용이 쉽고 확장 가능한 고성능 블록 스토리지 서비스로서 EC2용으로 설계되었다. 볼륨 유형은 6가지로 나뉩니다.
* gp2/gp3(SSD), General Purpose SSD - 다양한 워크 로드에 대해 가격과 성능의 균형을 유지하는 범용 SSD 볼륨
* io1/io2(SSD), Provisioned IOPS SSD - 미션 크리티컬을 위한 고성능 SSD 볼륨으로 대기 시간이 짧거나 처리량이 많은 워크 로드에 적합합니다.
* st1(HDD) - 처리량에 최적화 HDD. 저렴한 HDD 볼륨
* sc1(HDD) - 콜드 HDD, 가장 저렴한 HDD 볼륨
No13.
Amazon EC2 인스턴스 집합에서 기업은 프로덕션 애플리케이션을 실행합니다. 이 프로그램은 Amazon SQS 대기열에서 데이터를 가져와 동시에 메시지를 처리합니다. 메시지 볼륨은 가변적이며 트래픽이 자주 중단됩니다. 이 프로그램은 중단 없이 지속적으로 메시지를 처리해야 합니다.
비용 효율성 측면에서 이러한 기준에 가장 적합한 옵션은 무엇입니까?
A. 스팟 인스턴스만 사용하여 필요한 최대 용량을 처리하십시오.
B. 필요한 최대 용량을 처리하기 위해 독점적으로 예약 인스턴스를 사용합니다.
C. 기준 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하기 위해 스팟 인스턴스를 사용합니다.
D. 기준 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하기 위해 온디맨드 인스턴스를 사용합니다.
문제의 키포인트는 '다운 타임 없이'와 '비용 효율성'입니다. 중단할 수 없는 불규칙한 단기 워크로드가 있는 애플리케이션의 경우 온디맨드 인스턴스를 사용하는 것이 좋습니다.
Reserved : 장기 계약하면 더 저렴(Saving Plans라고도 함) - 1, 3년 주기로 계약
C - 스팟 인스턴스는 남는 EC2 용량을 갖다 쓸 수 있어 저렴. - 급하게 쓸 때
No14.
Amazon Elastic Container Service(Amazon ECS) 컨테이너 인스턴스는 ALB(Application Load Balancer) 뒤에 전자 상거래 웹 사이트의 웹 애플리케이션을 설치하는 데 사용됩니다. 사용량이 많은 순간에는 웹 사이트 속도가 느려지고 가용성이 감소합니다. 솔루션 설계자는 Amazon CloudWatch 경보를 활용하여 가용성 문제가 발생할 때 알림을 받고 리소스를 확장할 수 있습니다. 비즈니스 경영진은 이러한 상황에 자동으로 대응하는 시스템을 원합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. ALB에 시간 초과가 있을 때 ECS 서비스를 확장하도록 AWS Auto Scaling을 설정합니다. CPU 또는 메모리 예약이 너무 높을 때 ECS 클러스터를 확장하도록 AWS Auto Scaling을 설정합니다.
B. ALB CPU 사용률이 너무 높을 때 ECS 서비스를 확장하도록 AWS Auto Scaling을 설정합니다. CPU 또는 메모리 예약이 너무 높을 때 ECS 클러스터를 확장하도록 AWS Auto Scaling을 설정합니다.
C. 서비스의 CPU 사용률이 너무 높을 때 ECS 서비스를 확장하도록 AWS Auto Scaling을 설정합니다. CPU 또는 메모리 예약이 너무 높을 때 ECS 클러스터를 확장하도록 AWS Auto Scaling을 설정합니다.
D. ALB 대상 그룹 CPU 사용률이 너무 높을 때 ECS 서비스를 확장하도록 AWS Auto Scaling을 설정합니다. CPU 또는 메모리 예약이 너무 높을 때 ECS 클러스터를 확장하도록 AWS Auto Scaling을 설정합니다.
ALB가 아닌 애플리케이션의 사용량에 대해서 말하고 있습니다.
ECS 서비스에는 여러 지표들을 선택하고, 이를 추적할 수 있습니다.
지표 종류는
* ECSServiceAverageCPUUtilization - 서비스의 평균 CPU 사용률입니다.
* ECSServiceAverageMemoryUtilization - 서비스의 평균 메모리 사용률입니다.
* ALBRequestCountPerTarget - Application Load Balancer 대상 그룹의 대상당 완료된 요청 수입니다.
ECS에서 Auto Scaling 기능과 CloudWatch 경보를 통해 ECS 서비스를 조정할 수 있습니다. Service Auto Scaling을 사용하면 수요가 높을 때 확장하여 고가용성을 달성하고 수요가 낮을 때 서비스와 클러스터를 축소하여 비용을 최적화할 수 있습니다. 모두 자동으로 실시간입니다.
No15.
비즈니스에서 AWS를 사용하여 설문 조사 웹 사이트를 호스팅 하려고 합니다. 회사는 많은 양의 트래픽을 예상했습니다. 이 트래픽의 결과로 데이터베이스는 비동기식으로 업데이트됩니다. 조직은 AWS에 보관된 데이터베이스에 대한 쓰기 작업을 중단 없이 하기를 원합니다.
이러한 데이터베이스 요청을 처리하려면 비즈니스 애플리케이션을 어떻게 작성해야 합니까?
A. Amazon Simple Notification Service(Amazon SNS) 주제에 게시하도록 애플리케이션을 구성합니다. SNS 주제에 데이터베이스를 구독합니다.
B. Amazon Simple Notification Service(Amazon SNS) 주제를 구독하도록 애플리케이션을 구성합니다. SNS 주제에 데이터베이스 업데이트를 게시합니다.
C. Amazon SQS(Simple Queue Service) FIFO 대기열을 사용하여 데이터베이스에 데이터를 쓸 리소스가 있을 때까지 데이터베이스 연결을 대기열에 넣습니다.
D. 데이터베이스에 기록될 때마다 쓰기를 캡처하고 대기열을 비우기 위해서 Amazon SQS(Simple Queue Service) FIFO 대기열을 사용합니다.
SQS의 메시지 대기열의 종류 중 하나인 FIFO(선입선출)을 통하면 메시지 쓰기가 지속적으로 이루어질 수 있도록 보장해 줍니다.
A, B - SNS을 통해서는 데이터베이스에 메시지를 게시할 수 없습니다.
C - 보기대로 진행하면 지속적인 작업을 보장받기 힘들 수 있습니다.
No16.
솔루션 설계자는 Amazon Web Services(AWS) 클라우드에서 하이브리드 애플리케이션을 개발하고 있습니다. AWS Direct Link(DX)는 온프레미스 데이터 센터를 AWS에 연결하는 데 사용됩니다. AWS와 온프레미스 데이터 센터 간의 애플리케이션 연결은 매우 내구성이 있어야 합니다.
이러한 기준을 충족하려면 어떤 DX 설정을 사용해야 합니까?
A. 그 위에 VPN을 사용하여 DX 연결을 구성합니다.
B. 여러 DX 위치에서 DX 연결을 구성합니다.
C. 가장 신뢰할 수 있는 DX 파트너를 사용하여 DX 연결을 구성합니다.
D. DX 연결 위에 여러 가상 인터페이스를 구성합니다.
여러 DX 위치에서 DX 연결을 구성한다면 높은 복원력과 내결함성을 얻을 수 있습니다.
A - VPN을 사용한다면 또 다른 단일 실패 지점이 추가될 뿐입니다. 이는 고가용성 및 내결함성을 얻을 수 없습니다. 이는 인터넷을 연결할 땐 적절한 답이 될 수 있습니다.
No17.
단일 Amazon EC2 인스턴스에서 기업은 ASP.NET MVC 애플리케이션을 실행합니다. 최근 애플리케이션 사용량이 급증하면서 사용자는 점심 시간에 응답 시간이 좋지 않습니다. 회사는 가능한 최소한의 설정을 사용하여 이 문제를 해결해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 권장 사항을 제시해야 합니까?
A. 애플리케이션을 AWS Elastic Beanstalk로 이동합니다. 부하 기반 Auto Scaling 및 시간 기반 크기 조정을 구성하여 점심 시간에 조정을 처리합니다.
B. 애플리케이션을 Amazon Elastic Container Service(Amazon ECS)로 이동합니다. 점심 시간 동안 조정을 처리하는 AWS Lambda 함수를 생성합니다.
C. 애플리케이션을 Amazon Elastic Container Service(Amazon ECS)로 이동합니다. 점심 시간에 AWS Application Auto Scaling에 대한 예약 조정을 구성합니다.
D. 애플리케이션을 AWS Elastic Beanstalk로 이동합니다. 부하 기반 Auto Scaling을 구성하고 점심 시간 동안 조정을 처리하는 AWS Lambda 함수를 생성합니다.
Elastic Beanstalk를 사용하면 애플리케이션을 실행하는 인프라에 대해 자세히 알지 못해도 AWS 클라우드에서 애플리케이션을 신속하게 배포하고 관리할 수 있습니다.
Elastic Beanstalk는 Go, Java, .NET, Node.js, PHP, Python 및 Ruby에서 개발된 애플리케이션을 지원합니다.
D - Elastic Beanstalk은 자동으로 확장되는 서비스입니다. 여기서 Lambda가 필요한 이유는 없습니다.
No18.
기업의 생산 워크로드는 6개의 오로라 복제본으로 구성된 Amazon Aurora MySQL DB 클러스터에서 호스팅 됩니다. 이 회사는 3개의 오로라 복제품 중 한 부서의 실시간에 가까운 보고 요청을 자동으로 배포하려고 합니다. 이 세 개의 복사본은 계산 및 메모리 측면에서 DB 클러스터의 나머지 복사본과 다르게 구성됩니다.
어떤 솔루션이 이러한 기준을 충족합니까?
A. 작업 부하에 대한 사용자 지정 끝점을 만들고 사용합니다.
B. 3노드 클러스터 클론을 생성하고 리더(Reader) 엔드포인트를 사용합니다.
C. 선택한 세 노드에 대해 인스턴스 끝점 중 하나를 사용합니다.
D. 리더 엔드포인트를 사용하여 읽기 전용 작업 부하를 자동으로 배포합니다.
커스텀 엔드포인트를 사용하면 DB 인스턴스의 읽기 전용 또는 읽기/쓰기 기능이 아닌 다른 기준에 따라 로드 밸런싱 된 데이터베이스 연결을 제공합니다. 예를 들어 특정 AWS 인스턴스 클래스 또는 특정 DB 파라미터 그룹을 사용하는 인스턴스에 연결하기 위해 사용자 지정 엔드포인트를 정의할 수 있다. 이 기능은 클러스터의 모든 Aurora 복제본을 동일하게 유지하는 것이 효율적이지 않은 특수 종류의 워크로드에 적합합니다.
Aurora 4가지의 엔드포인트
1. Cluster Endpoint : 이전에는 Writer Endpoint라고 불렸으며, 쓰기 작업을 수행할 수 있는 유일한 엔드포인트
2. Reader Endpoint : DB 클러스터에 대한 읽기 전용 연결에 대해 로드 밸런싱 지원을 제공합니다. 읽기 전용 복제본
3. Custom Endpoint : 클러스터에 용량 및 구성 설정이 서로 다른 DB 인스턴스가 포함된 경우
4. Instance Endpoint : Aurora 내부의 특정 DB 인스턴스에 연결
No19.
한 기업이 여러 가용 영역에 분산된 Amazon EC2 인스턴스에서 작동할 웹 기반 애플리케이션을 개발 중입니다. 온라인 애플리케이션을 통해 900TB 이상의 텍스트 콘텐츠 컬렉션에 액세스할 수 있습니다. 회사는 온라인 지원에 대한 수요가 많을 것으로 예상합니다. 솔루션 설계자는 텍스트 문서 스토리지 구성 요소가 항상 애플리케이션의 요구 사항을 충족하도록 확장할 수 있음을 보장해야 합니다. 회사는 솔루션의 총비용에 대해 우려하고 있습니다.
비용 효율성 측면에서 이러한 기준을 가장 잘 충족하는 스토리지 시스템은 무엇입니까?
A. Amazon Elastic Block Store(Amazon EBS)
B. Amazon Elastic File System(Amazon EFS)
C. Amazon Elasticsearch Service(Amazon ES)
D. 아마존 S3
문제에서 요구하는 '많은 양의 데이터'와 '비용 효율성'을 모두 따져보면 S3가 가장 적합합니다. 또한 S3는 어디에서나 액세스할 수 있습니다. 참고로 S3의 단일 객체는 5TB의 제한이 있지만 버킷에는 제한이 없으므로 900TB의 텍스트 콘텐츠 '컬렉션'을 수용 가능합니다.
A - EBS는 다중 AZ를 지원하지 않습니다.
B - 솔루션의 목표가 편집을 병렬로 수행하고 배포하는 것이 아니라면 EFS를 사용할 이유가 없습니다. EFS는 굉장히 비쌉니다.
C - 검색에 대한 언급이 없습니다.
No20.
회사에는(Load Balancer) 뒤의 단일 가용 영역에 있는 Amazon EC2 Auto Scaling 그룹에서 6개의 프런트 엔드 웹 서버를 실행하는 다중 계층 애플리케이션이 있습니다. 솔루션 설계자는 애플리케이션을 수정하지 않고도 고가용성을 위해 인프라를 수정해야 합니다.
솔루션 설계자는 고가용성을 제공하는 어떤 아키텍처를 선택해야 합니까?
A. 두 리전에서 각각 3개의 인스턴스를 사용하는 Auto Scaling 그룹을 생성합니다.
B. 2개의 가용 영역 각각에서 3개의 인스턴스를 사용하도록 Auto Scaling 그룹을 수정합니다.
C. 다른 리전에서 더 많은 인스턴스를 빠르게 생성하는 데 사용할 수 있는 Auto Scaling 템플릿을 생성합니다.
D. 라운드 로빈 구성에서 Amazon EC2 인스턴스 앞의 ALB를 변경하여 웹 계층에 대한 트래픽 균형을 조정합니다.
단일 가용 영역을 고가용성을 가진 인프라로 만들려면 여러 개의 가용 영역을 구성하면 된다. 때문에 B의 2개의 가용 영역을 만든 후, 탄력성을 위해 3개의 인스턴스 추가를 통해 Auto Scaling Group(AGS)를 수정하면 됩니다.
A - AGS는 여러 지역에서 구성할 수 없습니다.
No21.
기업은 다양한 Amazon EC2 인스턴스를 통해 소비자로부터 데이터를 수집하는 애플리케이션을 운영합니다. 처리 후 데이터는 장기 저장을 위해 Amazon S3에 업로드됩니다. 애플리케이션 연구에 따르면 EC2 인스턴스가 장기간 비활성 상태인 것으로 나타났습니다. 솔루션 설계자는 비용을 최소화하면서 사용량을 최대화하는 시스템을 제공해야 합니다.
이 기준을 충족하는 솔루션은 무엇입니까?
A. 온디맨드 인스턴스가 있는 Auto Scaling 그룹에서 Amazon EC2를 사용합니다.
B. 온디맨드 인스턴스와 함께 Amazon Lightsail을 사용하도록 애플리케이션을 구축합니다.
C. Amazon CloudWatch 크론 작업을 생성하여 활동이 없을 때 EC2 인스턴스를 자동으로 중지합니다.
D. Amazon Simple Queue Service(Amazon SQS) 및 AWS Lambda에서 이벤트 중심 설계를 사용하도록 애플리케이션을 재설계합니다.
문제의 키포인트는 '인스턴스의 장기간 비활성 상태'입니다.
SQS와 Lambda의 조합은 보기 중 가장 저렴합니다. Lambda를 사용하면 온디맨드 형식으로 비용을 지불하면 되며 서버리스 형식이기에 매우 저렴합니다. 함수에 대한 요청 수와 기간, 코드를 실행하는 데 걸리는 시간에 따라 요금이 청구됩니다. 또한 비용을 절감하는 것뿐만 아니라 사용량을 극대화해야 하기 때문에 A 가 답이 될 수 없으며, SQS + Lambda를 사용하면 향상된 처리량을 얻을 수 있습니다.
Lambda는 코드를 15분 이내에 수행됩니다.
No22.
이전에는 기업에서 데이터 웨어하우징 솔루션을 AWS로 이전했습니다. 또한 회사에는 AWS Direct Connect 연결이 있습니다. 회사 사무실의 사용자는 시각화 도구를 사용하여 데이터 웨어하우스를 쿼리 할 수 있습니다. 데이터 웨어하우스에서 응답하는 각 쿼리의 크기는 평균 50MB인 반면 시각화 도구에서 제공하는 각 웹 페이지의 크기는 약 500KB입니다. 데이터 웨어하우스는 반환하는 결과 집합을 캐시 하지 않습니다.
회사의 데이터 전송 비용이 가장 낮은 접근 방식은 무엇입니까?
A. 온프레미스에서 시각화 도구를 호스팅하고 인터넷을 통해 직접 데이터 웨어하우스를 쿼리 합니다.
B. 데이터 웨어하우스와 동일한 AWS 리전에서 시각화 도구를 호스팅 합니다. 인터넷을 통해 액세스하십시오.
C. 온프레미스에서 시각화 도구를 호스팅하고 동일한 AWS 리전의 위치에서 Direct Connect 연결을 통해 직접 데이터 웨어하우스를 쿼리 합니다.
D. 데이터 웨어하우스와 동일한 AWS 리전에서 시각화 도구를 호스팅하고 동일한 리전의 위치에서 DirectConnect 연결을 통해 액세스합니다.
문제의 키포인트는 Direct Connect(DX). 이는 인터넷을 통해 AWS에 연결하는 것이 아님을 의미합니다. 또한 Direct Connect를 사용하면 인터넷을 통하는 것보다 훨씬 저렴합니다. 회사가 인터넷을 통해 시각화 도구에 액세스하면 데이터 비용이 증가합니다. 하지만, DX는 전송 데이터양에 따라서 비용이 달라지지 않으며, 시간당 비용을 지불할 뿐입니다. 때문에, DX를 사용하여 데이터를 전송하는 것이 매우 합리적입니다.
A, B - 인터넷으로 데이터를 전송하는 것은 DX 보다 적절하지 못합니다.
C - 도구를 온프레미스에 배치하면 도구가 DX를 통해 DB에서 데이터를 검색하기 때문에 50Mb의 비용이 발생합니다. 하지만 AWS에 도구를 배치하면 웹사이트는 DX를 통해 도구에서 데이터를 검색하기 때문에 500Kb의 비용이 발생하기에, 좋지 못한 선택입니다. (웨어하우스와 동일한 AWS 리전에서 연결하는 게 더 저렴합니다.)
No23.
인수한 지 한 달 이내에 새로 인수한 회사는 AWS에 자체 인프라를 구축하고 다양한 앱을 클라우드로 이전해야 합니다. 각 애플리케이션에는 약 50TB의 데이터 전송이 필요합니다. 이전 후 이 회사와 모회사는 데이터 센터와 앱 간의 처리량이 일정한 보안 네트워크 연결이 필요합니다. 솔루션 설계자는 데이터 전송이 한 번만 발생하고 네트워크 연결이 유지되도록 보장해야 합니다.
어떤 솔루션이 이러한 기준을 충족할까요?
A. 초기 전송 및 지속적인 연결을 위한 AWS Direct Connect.
B. 초기 전송 및 지속적인 연결을 위한 AWS Site-to-Site VPN.
C. 초기 전송을 위한 AWS Snowball 및 지속적인 연결을 위한 AWS Direct Connect.
D. 초기 전송을 위한 AWS Snowball 및 지속적인 연결을 위한 AWS Site-to-Site VPN.
문제의 요구사항은 '한 달 이내'에 50TB 데이터 전송, 회사와 회사 간의 '일정한 보안 네트워크 연결'을 원하고 있습니다. 많은 데이터를 초기에 전송하기 위해서 Snowball을 사용하고, 일정한 네트워크 연결을 위해서 Direct Connect(DX)를 사용하면 좋은 솔루션이 됩니다. 이때 DX와 다르게 VPN이 암호화되고 보안적으로 안전한 장치가 많아서 좋을 수 있다고 하지만 VPN은 일정한 연결을 얻기 어렵습니다. 또한 DX는 암호화되진 않았지만, 직접 연결은 1 대 1의 연결이라 인터넷을 통하는 것이 아니기 때문에 마찬가지로 안전합니다.
2021년 3월부터 DX가 L2 암호화를 지원하니 참고하시면 되겠습니다.
No24.
한 회사는 사용자 데이터를 캡처하고 향후 분석을 위해 저장하는 음식 주문 애플리케이션을 구축했습니다. 애플리케이션의 정적 프런트 엔드는 Amazon EC2 인스턴스에 배포됩니다. 프런트 엔드 애플리케이션은 별도의 EC2 인스턴스에서 실행되는 백엔드 애플리케이션으로 요청을 보냅니다. 그러면 백엔드 애플리케이션이 Amazon RDS에 데이터를 저장합니다.
솔루션 설계자는 아키텍처를 분리하고 확장 가능하게 만들기 위해 무엇을 해야 합니까?
A. Amazon S3를 사용하여 백엔드 애플리케이션을 실행하기 위해 Amazon EC2에 요청을 보내는 프런트엔드 애플리케이션을 제공합니다. 백엔드 애플리케이션은 Amazon RDS에서 데이터를 처리하고 저장합니다.
B. Amazon S3를 사용하여 프런트 엔드 애플리케이션을 제공하고 Amazon Simple Notification Service(Amazon SNS) 주제에 대한 요청을 작성합니다. 주제의 HTTP/HTTPS 엔드 포인트에 Amazon EC2 인스턴스를 구독하고 Amazon RDS에서 데이터를 처리 및 저장합니다.
C. EC2 인스턴스를 사용하여 프런트 엔드를 제공하고 Amazon SQS 대기열에 요청을 작성합니다. 백엔드 인스턴스를 Auto Scaling 그룹에 배치하고 대기열 깊이에 따라 확장하여 Amazon RDS에서 데이터를 처리하고 저장합니다.
D. Amazon S3를 사용하여 정적 프런트 엔드 애플리케이션을 제공하고 Amazon SQS 대기열에 요청을 쓰는 Amazon API Gateway에 요청을 보냅니다. 백엔드 인스턴스를 Auto Scaling 그룹에 배치하고 대기열 깊이에 따라 확장하여 Amazon RDS에서 데이터를 처리하고 저장합니다.
문제의 키워드는 '정적' 및 '분리/확장'입니다. 정적 데이터를 저장하고 제공하기 위해서는 S3가 적합하며, S3는 아무런 옵션 없이도 확장이 가능하기에 요구 사항과 일치합니다. 또한 아키텍처를 분리하기 위해서는 SQS를 사용해야 합니다. 이때 API Gateway 또한 서버리스이므로 적절합니다.
C - EC2 인스턴스는 Auto Scaling으로 확장이 가능하지만, 문제에는 이 항목이 빠져 있기에 확장성을 D와 비교한다면 D가 더 적절합니다.
No25.
회사에 AWS Lambda 함수를 호출하는 애플리케이션이 있습니다. 코드 검토는 데이터베이스 자격 증명이 회사 보안 정책을 위반하는 Lambda 함수 소스 코드에 저장되어 있음을 보여줍니다. 자격 증명은 안전하게 저장되어야 하며 보안 정책 요구 사항을 충족하기 위해 지속적으로 자동 교체되어야 합니다.
가장 안전한 방식으로 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
A. AWS CloudHSM에 암호를 저장합니다. 키 ID를 사용하여 CloudHSM에서 암호를 검색할 수 있는 역할과 Lambda 함수를 연결합니다. CloudHSM을 사용하여 비밀번호를 자동으로 교체합니다.
B. AWS Secrets Manager에 암호를 저장합니다. 보안 ID를 사용하여 Secrets Manager에서 비밀번호를 검색할 수 있는 역할과 Lambda 함수를 연결합니다. Secrets Manager를 사용하여 암호를 자동으로 교체합니다.
C. AWS Key Management Service(AWS KMS)에 암호를 저장합니다. 키 ID를 사용하여 AWS KMS에서 암호를 검색할 수 있는 역할과 Lambda 함수를 연결합니다. AWS KMS를 사용하여 업로드된 비밀번호를 자동으로 교체합니다.
D. 데이터베이스 암호를 Lambda 함수와 연결된 환경 변수로 이동합니다. 함수를 호출하여 환경 변수에서 암호를 검색합니다. 암호를 자동으로 교체하는 배포 스크립트를 만듭니다.
문제의 키워드는 '자동 교체'입니다. Secrets Manager는 암호화해야 하는 기밀 정보인 데이터베이스의 자격 증명 및 API 키 등에 대해서 설계되었으며, 비밀 항목 생성에는 기본적으로 암호화가 활성화됩니다. 중요한 점은 키 회전(교체) 옵션을 추가로 제공합니다.
Secrets Manager는 코드의 암호를 포함해 하드 코딩된 자격 증명을 Secrets Manager에서 프로그래밍 방식으로 보안 암호를 검색하도록 하는 API 호출로 바꿀 수 있다. 이렇게 하면 보안 암호가 코드에 더 이상 존재하지 않기 때문에 코드를 검사하는 누군가에 의해 보안 암호가 손상되지 않도록 방지할 수 있습니다.
No26.
장바구니 애플리케이션은 Amazon RDS 다중 AZ 데이터베이스 인스턴스에 연결됩니다. 데이터베이스 성능으로 인해 애플리케이션이 느려집니다. 차세대 인스턴스 유형으로 업그레이드한 후에도 성능이 크게 향상되지 않았습니다.
분석에 따르면 약 700 IOPS가 유지되고 일반적인 쿼리가 장기간 실행되며 메모리 사용량이 상당합니다.
솔루션 설계자는 이러한 문제를 해결하기 위해 어떤 애플리케이션 수정을 제안할 수 있습니까?
A. RDS 인스턴스를 Amazon Redshift 클러스터로 마이그레이션하고 매주 가비지 수집을 활성화합니다.
B. 장기 실행 쿼리를 새로운 다중 AZ RDS 데이터베이스로 분리하고 필요한 데이터베이스를 쿼리하도록 애플리케이션을 수정합니다.
C. 2노드 Amazon ElastiCache 클러스터를 배포하고 클러스터를 먼저 쿼리하고 필요한 경우에만 데이터베이스를 쿼리하도록 애플리케이션을 수정합니다.
D. 일반적인 쿼리를 위한 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 생성하고 먼저 쿼리하고 필요한 경우에만 데이터베이스를 쿼리 합니다.
ElastiCache는 읽기 집약적인 워크로드에 대한 데이터베이스의 부하를 줄이는 데 도움이 됩니다. 또한 장기 실행 쿼리의 캐시 결과나 동일한 요청에 대한 캐시에 대해서 좋은 처리 효율을 보여줍니다.
A - Redshift는 분석용 서비스로 이미 문제에선 분석된 결과를 말해주고 있기에 필요하지 않습니다.
B - 서로 다른 데이터베이스를 통합하는 것은 무리입니다.
D - SQS는 DB의 대체품으로 사용되지 않습니다.
No27.
회사는 2계층 이미지 처리 프로그램을 운영합니다. 애플리케이션은 각각 고유한 퍼블릭 서브넷과 프라이빗 서브넷이 있는 두 개의 가용 영역으로 나뉩니다.
웹 계층의 ALB(Application Load Balancer)는 퍼블릭 서브넷을 사용합니다. 프라이빗 서브넷은 애플리케이션 계층의 Amazon EC2 인스턴스에서 사용됩니다.
사용자에 따르면 프로그램이 계획보다 느리게 작동하고 있습니다. 웹 서버 로그 파일의 보안 감사에 따르면 애플리케이션은 소수의 IP 주소에서 수백만 건의 무단 요청을 수신합니다. 조직이 보다 영구적인 솔루션을 찾는 동안 솔루션 설계자는 긴급한 성능 문제를 해결해야 합니다.
이 요구 사항을 충족하려면 어떤 솔루션 아키텍처 접근 방식을 권장해야 합니까?
A. 웹 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
B. 웹 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
C. 애플리케이션 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
D. 애플리케이션 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
보안 그룹(Security Group)은 거부 규칙을 사용할 수 없습니다.( A와 C는 제외)
D는 내부의 어플리케이션 계층의 서브넷에서 규칙 반영해서 틀립니다.
웹 계층은 애플리케이션 계층보다 먼저 작동하며 웹 계층 서브넷에 대한 ACL을 침입 IP 주소에 대해 거부 규칙을 추가한다면 확실한 대응이 될 수 있습니다
No28.
한 회사는 사용자가 방문한 장소에 체크인하고 장소의 순위를 매기고 경험에 대한 리뷰를 추가할 수 있는 애플리케이션을 구축했습니다. 매월 사용자 수가 급격히 증가하여 응용 프로그램이 성공적입니다. CTO는 단일 Amazon RDS for MySQL 인스턴스가 읽기 요청으로 인한 리소스 고갈과 관련된 경보를 트리거 했기 때문에 현재 인프라를 지원하는 데이터베이스가 다음 달에 새로운 로드를 처리하지 못할 수도 있다고 우려하고 있습니다.
솔루션 설계자는 코드 변경을 최소화하면서 데이터베이스 계층에서 서비스 중단을 방지하기 위해 무엇을 권장할 수 있습니까?
A. RDS 읽기 전용 복제본을 생성하고 읽기 전용 트래픽을 읽기 전용 복제본 엔드포인트로 리디렉션합니다. 다중 AZ 배포를 활성화합니다.
B. Amazon EMR 클러스터를 생성하고 복제 계수가 3인 HDFS(Hadoop Distributed File System)로 데이터를 마이그레이션합니다.
C. Amazon ElastiCache 클러스터를 생성하고 모든 읽기 전용 트래픽을 클러스터로 리디렉션합니다. 3개의 가용 영역에 배포할 클러스터를 설정합니다.
D. Amazon DynamoDB 테이블을 생성하여 RDS 인스턴스를 교체하고 모든 읽기 전용 트래픽을 DynamoDB 테이블로 리디렉션합니다. DynamoDB Accelerator를 활성화하여 기본 테이블에서 트래픽을 오프로드 합니다.
읽기 전용 복제본의 일반적인 사례입니다. 읽기 전용 복제본을 사용하면 읽기 작업에 대한 트래픽을 효율적으로 처리가 가능하기에 위의 문제를 쉽게 해결 가능합니다. 또한 별도의 코드 변경이 필요하지 않으며, 문제의 '서비스 중단 방지'를 위해서 다중 AZ를 배포하는 것 또한 이상적입니다.
C - 읽기 데이터가 정적이고 이를 자주 읽는 경우 ElastiCache는 좋은 대안이 될 수 있습니다. 하지만 ElastiCache를 사용하기 위해서는 캐시 할 수 있는 항목, 캐시 할 수 없는 항목 등의 확인을 위해 코드를 수정해야 할 수도 있습니다. 그리고 문제에서 캐시를 사용할 수 있을만한 읽기 패턴이 명시되어 있지 않습니다.
No29.
회사는 여러 가용 영역(AZ)에 여러 프라이빗 서브넷이 있고 AZ 중 하나에 하나의 퍼블릭 서브넷이 있는 VPC를 생성했습니다. 퍼블릭 서브넷은 NAT 게이트웨이를 시작하는 데 사용됩니다. NAT 게이트웨이를 사용하여 인터넷에 연결하는 프라이빗 서브넷의 인스턴스가 있습니다. AZ 장애가 발생하는 경우 회사는 모든 인스턴스에 인터넷 연결 문제가 발생하지 않고 백업 계획이 준비되어 있는지 확인하려고 합니다.
솔루션 아키텍트가 가장 가용성이 높은 어떤 솔루션을 권장해야 합니까?
A. 동일한 AZ에 NAT 게이트웨이를 사용하여 새 퍼블릭 서브넷을 생성합니다. 두 NAT 게이트웨이 간에 트래픽을 분산합니다.
B. 새 퍼블릭 서브넷에 Amazon EC2 NAT 인스턴스를 생성합니다. NAT 게이트웨이와 NAT 인스턴스 간에 트래픽을 분산합니다.
C. 각 AZ에서 퍼블릭 서브넷을 생성하고 각 서브넷에서 NAT 게이트웨이를 시작합니다. 각 AZ의 프라이빗 서브넷에서 해당 NAT 게이트웨이로의 트래픽을 구성합니다.
D. 동일한 퍼블릭 서브넷에 Amazon EC2 NAT 인스턴스를 생성합니다. NAT 게이트웨이를 NAT 인스턴스로 교체하고 해당 인스턴스를 적절한 조정 정책이 있는 Auto Scaling 그룹과 연결합니다.
NAT Gateway는 단일 AZ 내에서만 탄력적입니다. 문제에선 현재 하나의 NAT Gateway를 사용해 프라이빗 서브넷의 인스턴스가 인터넷에 연결되고 있습니다. 이때 해당 AZ의 장애 발생 시 단일 AZ로 구성된 인터넷 연결은 끊어지고 인스턴스 또한 종료됩니다. 이를 방지하려면 각 AZ에 퍼블릭 서브넷을 생성 후 NAT Gateway를 1 대 1 매핑하고 각각의 AZ의 프라이빗 서브넷에 연결하면 내결함성을 가진 구성이 됩니다.
No30.
자전거 공유 회사는 피크 운영 시간 동안 자전거의 위치를 추적하기 위해 다계층 아키텍처를 개발하고 있습니다. 회사는 기존 분석 플랫폼에서 이러한 데이터 포인트를 사용하려고 합니다. 솔루션 설계자는 이 아키텍처를 지원하기 위해 가장 실행 가능한 다중 계층 옵션을 결정해야 합니다. 데이터 포인트는 REST API에서 액세스할 수 있어야 합니다.
위치 데이터 저장 및 검색에 대한 이러한 요구 사항을 충족하는 작업은 무엇입니까?
A. Amazon S3와 함께 Amazon Athena를 사용하십시오.
B. AWS Lambda와 함께 Amazon API Gateway를 사용합니다.
C. Amazon Redshift와 함께 Amazon QuickSight를 사용합니다.
D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용합니다.
기존 분석 플랫폼에서 데이터 포인트 사용'을 원하고 있습니다. Amazon Athena는 분석 플랫폼이 아닌 대화형 쿼리 서비스입니다. Athena에는 SQL을 사용해 S3 항목을 검색하는 API가 있습니다. 때문에 S3에 데이터를 저장하고 Amazon Athena를 통해 SQL을 쿼리 하면 S3에서 데이터를 추출하면 적절합니다.
B - Lambda를 통해서는 데이터를 저장할 수 없습니다.
C - 따로 대시보드에 대한 언급이 없으므로 QuickSight는 제외됩니다.
D - 현재 회사에는 자체 분석 플랫폼이 존재하기에 Kinesis Data Analytic(KDA) = 실시간으로 추적할 수 있는 data stream )와 같은 분석 서비스가 필요하지 않습니다.
No31.
회사의 보안 정책에 따라 AWS 계정의 대체 AWS API 활동이 정기적인 감사에 기록되어야 합니다.이 회사는 AWS 조직을 사용하여 현재 및 미래의 모든 AWS 계정에서 AWS CloudTrail을 활성화해야 합니다. 어떤 솔루션이 가장 안전합니까?
A. 조직의 루트에서 CloudTrail만 사용하도록 허용하는 SCP (서비스 제어 정책) 를 정의하고 연결합니다.
B. 필요에 따라 조직의 마스터 계정에 IAM 그룹 생성 사용자가 CloudTrail을 비활성화할 수 없도록 하는 IAM 정책을 정의하고 그룹에 연결합니다.
C. 계정을 OU (조직 구성 단위) 로 구성 조직의 루트에서 사용자가 CloudTrail을 사용하지 않도록 설정하는 SCP (서비스 제어 정책) 를 정의하고 연결합니다.
D. 조직의 루트 아래에 있는 모든 기존 계정 추가 사용자가 CloudTrail을 사용하지 않도록 설정하는 모든 계정에 SCP (서비스 제어 정책) 를 정의하고 연결합니다.
CloudTrail은 AWS 환경 안에서 이루어지는 모든 활동의 로그. (AWS에서 누가 무엇을 했는지?)
- API 활동을 기록하는 모니터링 웹 서비스
- 계정 만들 때부터 자동으로 사용
- 누가 요청했는지에 대한 내용을 로깅 (S3 bucket에 저장)
AWS는 정책이 계정에 미치는 영향을 철저히 검증하지 않았다면 SCP를 조직의 루트에 연결하지 않는 것을 적극 권장합니다. 대신 한 번에 하나씩, 또는 소량 단위로 계정을 옮길 수 있는 OU를 만들어 사용자가 주요 서비스를 이용하지 못하는 일이 없게 해야 합니다.
No32.
회사는 데이터웨어 하우스에 대한 Amazon 레드 시프트를 사용합니다.이 회사는 구성 요소에 고장이 발생할 경우 데이터에 대한 높은 내구성을 보장하고자 합니다.솔루션 설계자는 무엇을 추천해야합니까?
A. 동시성 좌석을 활성화합니다.
B. 교차 리전 스냅샷을 활성화합니다.
C. 데이터 보존 기간을 늘립니다.
D. 다중 AZ에서 Amazon Redshift를 배포합니다.
PostgreSQL를 기반으로 하는 AWS의 Data Warehouse Service
하나의 통합된 데이터 저장공간, 다양한 운영 환경의 시스템 들로부터 데이터를 추출, 변환, 통합해서 요약한 데이터베이스입니다.
기본적으로 관계형 데이터베이스가 있는 상태를 가정하여 DW를 구성하여, 동영상이나 음악처럼 DB에 저장할 수 있는 파일도 필요한 부분을 추출하여 보여주어야 합니다.
PostgreSQL를 기반으로 하는 AWS의 Data Warehouse Service
단일 AZ 배포만 지원합니다.
No33.
한 회사가 다른 지역에 자사 환경의 격리된 백업을 만들었습니다.응용 프로그램이 웜 대기 모드에서 실행 되 고 응용 프로그램 로드 밸런서 (ALB) 앞에 있습니다.현재 장애 조치 프로세스는 수동이며 다른 지역의 보조 ALB를 가리키도록 DNS 별칭 레코드를 업데이트해야 합니다.
페일오버 프로세스를 자동화하기 위해 솔루션 설계자가 수행해야 하는 작업은 무엇입니까?
A. ALB 상태 확인을 활성화합니다.
B. Amazon Route 53 상태 확인을 활성화합니다.
C. Amazon Route 53에서 ALB 엔드포인트를 가리키는 CNAME 레코드를 생성합니다.
D. Amazon Route 53에서 내부 BIND DNS 서버를 가리키는 조건부 전달 규칙을 생성합니다.
Amazon Route 53 상태 확인은 웹 애플리케이션, 웹 서버, 기타 리소스의 상태와 성능을 모니터링 합니다.
- 엔드포인트를 모니터링하는 상태 확인
- 다른 상태 확인을 모니터링하는 상태 확인(계산된 상태 확인)
- CloudWatch 경보를 모니터링하는 상태 확인
No34.
한 회사에서 재무 검토를 위해 AWS 비용을 모니터링하려고 합니다.클라우드 운영 팀은 AWS 조직 마스터 계정의 아키텍처를 설계하여 모든 구성원 계정에 대해 AWS 비용 및 사용 보고서를 쿼리합니다.팀은 한 달에 한 번이 쿼리를 실행하고 청구서에 대한 자세한 분석을 제공해야 합니다. 이러한 요구 사항을 충족하는 가장 확장 가능하고 비용 효율적인 솔루션은 무엇입니까?
A. 마스터 계정에서 비용 및 사용량 보고서를 활성화합니다.Amazon Kinesis 사용 Amazon EMR 토르 분석에 보고서를 제공합니다.
B. 마스터 계정에서 비용 및 사용량 보고서를 활성화합니다.분석을 위해 Amazon S3에 Amazon Athena를 사용하여 보고서를 전송합니다.
C. 멤버 계정에 대해 비용 및 사용량 보고서를 활성화합니다.Amazon S3에 보고서를 전송하여 분석을 위해 Amazon Redshift를 사용합니다.
D. 멤버 계정에 대해 비용 및 사용량 보고서를 활성화합니다.보고서를 Amazon Kinesis로 전송하여 분석을 위해 Amazon QuickSight 사용
Amazon Athena는 분석 플랫폼이 아닌 대화형 쿼리 서비스입니다. Athena에는 SQL을 사용해 S3 항목을 검색하는 API가 있습니다. 때문에 S3에 데이터를 저장하고 Amazon Athena를 통해 SQL을 쿼리 하면 S3에서 데이터를 추출하면 적절합니다.
No35.
솔루션 설계자가 새 AWS 계정을 생성했으며 AWS 계정 루트 사용자 액세스를 보호해야 합니다. 어떤 작업 조합이 이를 수행할 수 있습니까?(두 개를 선택합니다.)
A. 루트 사용자가 강력한 암호를 사용하는지 확인합니다.
B. 루트 사용자에게 다중 요소 인증을 활성화합니다.
C. 루트 사용자 액세스 키를 암호화된 Amazon S3 버킷에 저장
D. root 사용자를 관리 권한이 포함된 그룹에 추가합니다.
E. 인라인 정책 문서를 사용하여 루트 사용자에게 필요한 사용 권한 적용
댓글과 공감 클릭은 더 좋은 글을 위한 응원이 됩니다.
관련글
'Cloud > AWS SAA 모의시험' 카테고리의 다른 글
AWS SAA 모의 시험 2nd #1 (4) | 2022.08.05 |
---|---|
AWS SAA 모의시험 #2 문제풀이 (2) | 2022.08.05 |
AWS SAA 최신 기출 문제풀이 #5 (0) | 2022.08.01 |
AWS SAA 최신 기출 문제풀이 #4 (0) | 2022.08.01 |
AWS SAA 최신 기출 문제풀이 #3 (3) | 2022.07.30 |