No26.

솔루션 설계자가 새로운 가상 사설 클라우드(VPC) 아키텍처를 개발하고 있습니다. 두 개의 퍼블릭 서브넷은 로드 밸런서용으로, 두 개의 프라이빗 서브넷은 웹 서버용으로, 두 개의 프라이빗 서브넷은 MySQL 용으로 예약되어 있습니다. HTTPS는 웹 서버에서 사용하는 유일한 프로토콜입니다. 솔루션 설계자는 이전에 0.0.0.0/0에서 포트 443에 액세스할 수 있도록 로드 밸런서의 보안 그룹을 구성했습니다. 회사 정책에 따라 각 리소스에는 해당 기능을 수행하는 데 필요한 최소한의 액세스 권한이 있어야 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 추가 구성 기술을 수행해야 합니까?​

 

A. 웹 서버에 대한 보안 그룹을 생성하고 0.0.0.0/0에서 포트 443을 허용합니다. MySQL 서버용 보안 그룹을 생성하고 웹 서버 보안 그룹에서 포트 3306을 허용합니다.

B. 웹 서버에 대한 네트워크 ACL을 생성하고 0.0.0.0/0에서 포트 443을 허용합니다. MySQL 서버용 네트워크 ACL을 생성하고 웹 서버 보안 그룹에서 포트 3306을 허용합니다.

C. 웹 서버에 대한 보안 그룹을 생성하고 로드 밸런서에서 포트 443을 허용합니다. MySQL 서버용 보안 그룹을 생성하고 웹 서버 보안 그룹에서 포트 3306을 허용합니다.

D. 웹 서버에 대한 네트워크 ACL을 생성하고 로드 밸런서에서 포트 443을 허용합니다. MySQL 서버용 네트워크 ACL을 생성하고 웹 서버 보안 그룹에서 포트 3306을 허용합니다.​

 

C

보안 그룹(SG)과 ACL의 상태 특성에 대해서 명확하게 알고 있어야 합니다. 먼저 보안 그룹의 상태 특성은 Statefull로 인/아웃 바운드 중 하나의 규칙만 설정을 해도 다른 나머지 바운드의 규칙은 설정된 규칙을 알아서 따라갑니다. 그에 반해, ACL은 Stateless의 상태 특성을 가지며, 인/아웃 바운드의 규칙을 둘 다 각각 설정해 줘야 제대로 된 보안 설정이 가능합니다. 예를 들어 ACL 규칙 설정 시 아웃 포트를 443으로 설정하여도 인 포트를 지정하지 않으면 적용되지 않습니다. 참고로, 보안 그룹은 허용 규칙만 가능하고, ACL은 허용/거부 규칙이 모두 가능합니다.

 

No27.

비즈니스에는 다양한 AWS 리전에서 실행 중인 여러 프로젝트가 있을 수 있습니다. 일반적으로 프로젝트에는 Application Load Balancer를 통해 라우팅 되는 Amazon EC2 인스턴스로 구성된 3계층 아키텍처가 있습니다. 인스턴스는 Auto Scaling 그룹의 일부로 관리되며 Amazon Elastic File System(Amazon EFS) 스토리지와 Amazon Relational Database Service(Amazon RDS) 데이터베이스를 공유합니다. 특정 이니셔티브에는 여러 지역의 리소스가 필요합니다.

솔루션 설계자는 각 프로젝트와 관련된 특정 비용을 결정해야 합니다.

이 정보를 전달하는 데 최소한의 운영 노력이 필요한 방법은 무엇입니까?

 

A. Cost Explorer를 사용하여 각 지역에 대해 일회성 쿼리를 수행하고 프로젝트별로 필터링하는 보고서를 만듭니다.

B. AWS Billing and Cost Management 세부 정보 페이지를 사용하여 프로젝트별 리소스의 실제 사용 비용을 확인합니다.

C. AWS Systems Manager를 사용하여 프로젝트별로 리소스를 그룹화하고 각 프로젝트의 리소스 및 비용을 모니터링합니다.

D. AWS Billing and Cost Management를 사용하여 비용 할당 태그를 활성화하고 프로젝트 태그를 기반으로 하는 보고서를 생성합니다.

 

D

기업에는 현재 다양한 AWS 리전에서 실행 중인 '여러 프로젝트'가 있습니다. 또한, 특정 이니셔티브에는 여러 지역의 리소스가 필요하다고 합니다. 이에 대해서 특정 비용을 결정해야 하며, 정보를 전달하는 데 최소한의 운영 노력을 요구합니다. 이는 Billing and Cost Management의 비용 할당 태그에서 프로젝트 태그를 기반으로 하는 보고서를 생성하면 적절합니다. 프로젝트를 기반으로 비용 분석을 볼 수 있으며, 각 태그는 키/값으로 구분되는데, 각 리소스에 대해 각 태그 키는 고유하여 하나의 값만 가질 수 있습니다. 때문에 태그를 이용하면 리소스를 정리할 수 있고, 비용 할당 태그를 이용하면 AWS 비용을 더 자세히 추적이 가능합니다. 이때 '비용 할당 태그'는 AWS에서 직접 보고서의 리소스 비용을 정리하기에 사용자는 쉽게 AWS 비용을 분류 및 추적이 가능합니다.

 

No28.

기업은 사람들이 서비스를 활용하는 방법에 대한 데이터를 수집, 처리 및 저장하기 위한 다양한 옵션을 평가하고 있습니다. 비즈니스 목표는 조직이 일반 SQL 쿼리를 사용하여 운영 통찰력을 쉽게 얻을 수 있도록 하는 분석 기능을 제공하는 것입니다. 솔루션은 액세스 가능성이 높고 데이터 계층의 ACID(Atomicity, Consistency, Isolation, and Durability) 요구 사항을 준수해야 합니다.

솔루션 아키텍트가 제안해야 하는 솔루션은 무엇입니까?

 

A. Amazon Timestream 데이터베이스를 사용합니다.

B. 다중 AZ 설계에서 Amazon Neptune 데이터베이스를 사용합니다.

C. 다중 AZ 설계에서 MySQL 용 완전 관리형 Amazon RDS 데이터베이스를 사용합니다.

D. Amazon Elastic Block Store(Amazon EBS) 처리량 최적화 HDD(st1) 스토리지를 사용하는 Amazon EC2 인스턴스에 PostgreSQL을 배포합니다.

 

C

문제의 핵심은 'ACID 준수'입니다. AWS RDS는 언제나 ACID 시스템에 대한 요구사항을 준수하며, 확인합니다.

A - Timestream은 Iot 및 운영 애플리케이션을 위한 빠르고 확장 가능한 서버리스 시계열 DB 서비스입니다.
B - Neptune은 Graph에 대한 데이터베이스로 관계가 높은 데이터에 적합합니다.

 

No29.

비즈니스는 Amazon S3 버킷을 통해 us-east-1 리전에 정적 웹 사이트 콘텐츠를 저장합니다. 버킷의 콘텐츠는 이를 가리키는 Amazon CloudFront 오리진을 통해 액세스할 수 있습니다. 교차 리전 복제가 활성화되어 버킷을 ap-southeast-1 리전에 복제합니다. 관리 팀은 웹사이트의 가용성을 높일 수 있는 솔루션을 찾고 있습니다.

가용성 향상을 위해 솔루션 설계자는 어떤 활동을 함께 수행해야 합니까? (2개를 선택하세요.)

 

A. 두 버킷을 CloudFront 오리진에 추가합니다.

B. Amazon Route 53에서 장애 조치 라우팅을 구성합니다.

C. 복제본 버킷을 가리키는 Amazon Route 53에 레코드를 생성합니다.

D. ap-southeast-1 버킷을 가리키는 추가 CloudFront 오리진을 생성합니다.

E. us-east-1 버킷을 기본으로, ap-southeast-1 버킷을 보조로 사용하여 CloudFront 오리진 그룹을 설정합니다.​

 

D,E

CloudFront의 오리진을 통해 '오리진 장애 조치'를 설정하고, 고가용성을 구현하기 위해서는 오리진 그룹을 생성해야 합니다. 이때 '오리진 장애 조치' 구성 시 최소 2개의 오리진이 배포되어야 합니다. 각각 기본(Primary) 오리진과 보조 오리진으로 구성됩니다. 문제와 대입해 보면 us-east-1이 기본 오리진이 되며, 교차 리전으로 복제된 ap-southeast-1의 새로운 버킷은 보조 오리진이 됩니다. 당연히 새로운 버킷에 대해서 먼저 CloudFront 오리진을 생성해야 합니다.

A - 하나의 오리진에 두 개 이상의 버킷을  구성할 수 없습니다.
B, C - Route 53을 사용하지 않습니다.

참고 : https://docs.aws.amazon.com/ko_kr/AmazonCloudFront/latest/DeveloperGuide/high_availability_origin_failover.html - (CloudFront Origin 다이어그램)

 

No30.

한 기업이 온프레미스 데이터 센터에서 Amazon Web Services 클라우드로 2계층 애플리케이션을 이전했습니다. 데이터 계층은 12' Amazon Elastic Block Store(Amazon EBS) 범용 SSD 스토리지가 있는 Oracle 용 다중 AZ Amazon RDS 구성입니다. 이 프로그램은 문서를 데이터베이스에서 평균 문서 크기가 6MB인 바이너리 빅 객체(BLOB)로 처리하고 저장하기 위한 것입니다.

데이터베이스는 시간이 지남에 따라 크기가 증가하여 성능이 저하되고 스토리지 비용이 증가합니다. 조직은 데이터베이스 성능을 높이고 가용성이 높고 강력한 솔루션이 필요합니다.

이러한 요구 사항을 충족하는 데 가장 비용 효율적인 접근 방식은 무엇입니까?

 

A. RDS DB 인스턴스 크기를 줄입니다. 스토리지 용량을 24TiB로 늘립니다. 저장 유형을 마그네틱으로 변경합니다.

B. RDS DB 인스턴스 크기를 늘립니다. 스토리지 용량을 24TiB로 늘립니다. 스토리지 유형을 프로비저닝된 IOPS로 변경합니다.

C. Amazon S3 버킷을 생성합니다. S3 버킷에 문서를 저장하도록 애플리케이션을 업데이트합니다. 기존 데이터베이스에 개체 메타데이터를 저장합니다.

D. Amazon DynamoDB 테이블을 생성합니다. DynamoDB를 사용하도록 애플리케이션을 업데이트합니다. AWS Database Migration Service(AWS DMS)를 사용하여 Oracle 데이터베이스에서 DynamoDB로 데이터를 마이그레이션합니다.​

 

C

문제의 핵심은 'BLOB'입니다. S3는 단독으로 사용하여도 99.99%의 가용성을 얻을 수 있고, 복원력이 뛰어납니다. 또한 S3의 스토리지 옵션에 의해 비용 효율의 요건을 충족합니다.

D - DynamoDB에는 적합하지 않은 워크로드들이 몇 가지 있으며, 다음과 같습니다. 임시 쿼리 액세스가 필요한 서비스, OLAP(온라인 분석 처리)/데이터 웨어하우스 구현, BLOB 등입니다. 이때 BLOB가 적합하지 않은 이유는 DynamoDB는 최대 400KB의 바이너리 객체를 저장할 수 있지만, 일반적으로 문서나 이미지를 저장하는 덴 적합하지 않습니다. 이에 대해 더 나은 아키텍처 패턴은 DynamoDB 테이블에 AWS S3 객체에 대한 포인터를 저장하는 것입니다.
반응형

 

No31.

솔루션 설계자는 Amazon S3 버킷에 제출된 모든 항목의 암호화를 보장하기 위해 어떤 단계를 수행해야 합니까?​

 

A. PutObject s3:x-amz-acl 헤더 세트가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.

B. PutObject private로 설정된 s3:x-amz-acl 헤더가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.

C. PutObject aws:SecureTransport 헤더가 true로 설정되지 않은 경우 거부하도록 버킷 정책을 업데이트합니다.

D. PutObject x-amz-server-side-encryption 헤더 세트가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.​

 

D

이 문제는 CLI 혹은 SDK의 사용법을 몰라도 풀 수 있었던 문제입니다. 암호화의 스펠링만 알고 있었다면 말이죠. 제대로 된 설명을 드리자면, S3에 객체를 업로드하려면 콘솔, CLI 혹은 SDK의 호출 여부에 관계없이 put 요청을 사용합니다. 이때 put 요청을 통해 업로드 시 객체를 암호화하려면, SSE-C, SSE-S3 혹은 SSE-KMS를 사용해 객체를 암호화하도록 S3에 지시하는 요청에 'x-amz-server-side-encryption이라는 헤더를 추가하면 됩니다.

참고 : https://aws.amazon.com/ko/blogs/security/how-to-prevent-uploads-of-unencrypted-objects-to-amazon-s3/#:~:text=Solution%20overview,console%2C%20CLI%2C%20or%20SDK.&text=To%20encrypt%20an%20object%20at,S3%2C%20or%20SSE%2DKMS

 

No32.

제조 비즈니스는 기계에 예측 유지 보수를 구현하는 데 관심이 있습니다. 비즈니스는 실시간 데이터를 AWS로 전송할 수백 개의 IoT 센서를 배포할 것입니다. 솔루션 설계자는 각 장비에 대해 순서대로 이벤트를 수신하고 후속 처리를 위해 데이터가 보존되도록 보장하는 솔루션을 설계할 책임이 있습니다.

가장 효과적인 옵션은 무엇입니까?​

 

A. 각 장비 자산에 대한 파티션이 있는 실시간 이벤트에 Amazon Kinesis Data Streams를 사용하십시오. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 저장합니다.

B. 각 장비 자산에 대한 샤드가 있는 실시간 이벤트에 Amazon Kinesis Data Streams를 사용합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon Elastic Block Store(Amazon EBS)에 데이터를 저장합니다.

C. 각 장비 자산에 대해 하나의 대기열이 있는 실시간 이벤트에 Amazon SQS FIFO 대기열을 사용합니다. SQS 대기열에 대한 AWS Lambda 함수를 트리거 하여 Amazon Elastic File System(Amazon EFS)에 데이터를 저장합니다.

D. 각 장비 자산에 대해 하나의 대기열이 있는 실시간 이벤트에 Amazon SQS 표준 대기열을 사용합니다. SQS 대기열에서 AWS Lambda 함수를 트리거 하여 Amazon S3에 데이터를 저장합니다.

 

A

SQS FIFO 대기열에 대해서 아시는 많은 분들이 문제의 '순서대로'에 속아 보기 C를 선택하셨을 것 같습니다. SQS와 Kinesis 둘 다 데이터를 순서대로 수신합니다. 하지만, 문제에 명시된 '실시간' 때문에 KInesis를 사용한 방법이 더욱 적절합니다.
이후, 대량의 실시간 데이터를 firehose로 전송하여 처리하고 이를 S3에 저장하면 됩니다.

B - 각 샤드를 하나의 장비마다 할당할 이유가 없습니다. 이는 여러 센서가 동일한 샤드를 사용할 수 있기 때문입니다. 샤드 내에서 데이터는 시퀀스 번호로 인해 항상 순서가 지정됩니다. 또한 EBS는 Firehose와 사용되지 않습니다.
C - B와 비슷한 이유입니다. 각 장비에 대해 하나의 대기열을 각각 지정할 이유가 없습니다. 동일한 메시지 ID를 가진 메시지는 함께 처리되기 때문입니다. 또한 Lambda는 대량의 실시간 데이터를 처리하는 곳엔 적절하지 못합니다.

 

No33.

솔루션 설계자는 고객 대면 애플리케이션을 개발할 책임이 있습니다. 애플리케이션은 잘 정의된 액세스 패턴으로 연중 다양한 읽기 및 쓰기 횟수를 가질 것으로 예상됩니다. 데이터베이스 감사 및 확장성은 AWS 클라우드에서 제어해야 합니다. RPO(복구 시점 목표) 5시간을 초과할 수 없습니다.

어떤 솔루션이 이 작업을 수행할 수 있습니까? (2개를 선택하세요.)​

 

A. Auto Scaling과 함께 Amazon DynamoDB를 사용하십시오. 온디맨드 백업 및 AWS CloudTrail을 사용합니다.

B. Auto Scaling과 함께 Amazon DynamoDB를 사용합니다. 온디맨드 백업과 Amazon DynamoDB 스트림을 사용합니다.

C. Amazon Redshift를 사용하여 동시성 확장을 구성합니다. 감사 로깅을 활성화합니다. 4시간마다 데이터베이스 스냅샷을 수행합니다.

D. 프로비저닝된 IOPS와 함께 Amazon RDS를 사용합니다. 데이터베이스 감사 매개변수를 활성화합니다. 5시간마다 데이터베이스 스냅샷을 수행합니다.

E. Auto Scaling과 함께 Amazon RDS를 사용합니다. 데이터베이스 감사 매개변수를 활성화합니다. 백업 보존 기간을 1일 이상으로 구성합니다.

 

A,E

문제의 핵심은 'AWS에서 제어'입니다. 이 말은 감사 및 확장에 대해 AWS가 모두 관여해야 하는 것입니다. 먼저 보기 A는 온디맨드 백업을 통해 RPO의 요구를 충족합니다. 또한 CloudTrail을 통해 데이터베이스를 감사를 할 수 있으며, 'AWS Managed Auditing'과 함께 사용하여 확장 또한 가능합니다.
보기 E는 확장 가능하며, AWS에서 감사 및 백업을 관리합니다. 백업 주기는 따로 명시되어 있지 않지만 5시간 미만일 수 없다는 기술적 제한이 없습니다. 여기서 1일은 '백업 보존 기간'입니다.

B - AWS DynamoDB Stream을 감사에 사용할 수 있지만, AWS에서 직접 관리하는 감사에는 사용할 수 없습니다.
C - Redshift는 데이터베이스가 아닌 '데이터 레이크'입니다.
D - 확장이 이루어지지 않습니다.

 

No34.

기업에서 필요에 따라 대량의 데이터를 일괄 처리하는 애플리케이션을 출시하고 있습니다. 워크 로드는 Amazon EC2 인스턴스에서 실행됩니다. 네트워크 설계는 확장성이 매우 높아야 하며 동일한 기본 하드웨어를 가진 노드 그룹화를 피해야 합니다.

이러한 요구 사항에 적합한 네트워크 솔루션 조합은 무엇입니까? (2개를 선택하세요.)

 

​A. 배치 그룹에서 실행할 EC2 인스턴스에 대한 용량 예약을 생성합니다.

B. 분산 배치 그룹에서 EC2 인스턴스를 실행합니다.

C. 클러스터 배치 그룹에서 EC2 인스턴스를 실행합니다.

D. EC2 Auto Scaling 그룹에 EC2 인스턴스를 배치합니다.

E. 파티션 배치 그룹에서 EC2 인스턴스를 실행합니다.

 

B,D

문제의 핵심은 '확장성' 및 '동일한 하드웨어를 가진 노드 그룹화는 지양'입니다. 먼저 '동일한 하드웨어를 가진 노드 그룹화 지양'을 위해선 분산 배치 그룹을 사용하는 것이 옳습니다. 클러스터와 파티션 배치 그룹은 EC2 인스턴스를 논리적으로 그룹화 시키기 때문입니다. 다음으로 '확장성'을 위해선 당연히 Auto Scaling을 사용하는 것이 옳습니다.

참고 : https://docs.aws.amazon.com/ko_kr/AWSEC2/latest/UserGuide/placement-groups.html

 

No35.

최근에 모놀리식 애플리케이션을 AWS로 이전했으며 현재 단일 Amazon EC2 머신에서 작동하고 있습니다. 애플리케이션 제한으로 인해 자동화된 확장을 사용하여 애플리케이션을 확장할 수 없습니다. CTO(최고 기술 책임자)는 기본 하드웨어가 손상될 가능성이 매우 높은 상황에서 EC2 인스턴스를 복원하는 자동화된 방법을 원합니다.

EC2 인스턴스의 실현 가능한 가장 빠른 자동 복구를 가능하게 하는 것은 무엇입니까?​

 

A. EC2 인스턴스가 손상된 경우 복구를 트리거 하는 Amazon CloudWatch 경보를 구성합니다.

B. EC2 인스턴스가 손상될 때 CTO에게 경고하는 SNS 메시지를 트리거하도록 Amazon CloudWatch 경보를 구성합니다.

C. EC2 인스턴스의 상태를 모니터링하도록 AWS CloudTrail을 구성하고 손상되면 인스턴스 복구를 트리거 합니다.

D. EC2 인스턴스의 상태를 확인하고 EC2 인스턴스가 비정상인 경우 인스턴스 복구를 트리거 하는 AWS Lambda 함수를 한 시간에 한 번씩 트리거하도록 Amazon EventBridge 이벤트를 구성합니다.

 

A

CloudWatch 알람 작업을 사용하면 EC2 인스턴스를 자동으로 중지, 종료, 재부팅 혹은 복구하는 알람을 생성할 수 있습니다. 또한 인스턴스를 더 이상 실행할 필요가 없는 경우에 중지 또는 종료 작업을 통해 비용 절감도 가능합니다. 재부팅 및 복구 작업 중 시스템 장애가 발생한 경우 인스턴스를 자동으로 재부팅하거나 새로운 하드웨어로 인스턴스를 복구합니다.
반응형

 

No36.

내부적으로 기업은 미디어 및 응용 프로그램 파일을 전달해야 합니다. 현재 사용자는 Active Directory를 통해 권한이 부여되고 Microsoft Windows 플랫폼을 통해 파일에 액세스할 수 있습니다. CEO는 이전과 동일한 사용자 권한을 유지하기를 원하지만 저장 용량 제한에 가까워지면 회사에서 절차를 개선하기를 원합니다.

솔루션 설계자는 어떤 권장 사항을 제시해야 합니까?

 

A. 기업 Amazon S3 버킷을 설정하고 모든 미디어 및 애플리케이션 파일을 이동합니다.

B. Amazon FSx for Windows File Server를 구성하고 모든 미디어 및 애플리케이션 파일을 이동합니다.

C. Amazon Elastic File System(Amazon EFS)을 구성하고 모든 미디어 및 애플리케이션 파일을 이동합니다.

D. Windows에서 Amazon EC2를 설정하고, 여러 Amazon Elastic Block Store(Amazon EBS) 볼륨을 연결하고, 모든 미디어 및 애플리케이션 파일을 이동합니다.

 

B

문제에서 파일을 내부적으로 공유해야 하며, Active Directory를 사용 중이라고 합니다. 절차 개선시 이전과 동일한 사용자 권한을 유지하기를 원하기 때문에 Amazon FSx for Windows File Server를 사용하는 것이 옳습니다.

 

No37.

한 비즈니스에서 자율 주행 차량의 데이터를 광범위한 자동차 커뮤니티와 공유하려고 합니다. 데이터는 Amazon S3 버킷을 통해 액세스 됩니다. 조직은 다른 AWS 고객이 이 데이터에 액세스할 수 있도록 하는 비용을 최소화하려고 합니다.

솔루션 설계자는 이 목표를 달성하기 위해 어떤 조치를 취해야 합니까?

 

A. 버킷에 대한 S3 VPC 엔드포인트를 생성합니다.

B. S3 버킷을 요청자 지불 버킷으로 구성합니다.

C. S3 버킷 앞에 Amazon CloudFront 배포를 생성합니다.

D. BitTorrent 프로토콜을 사용해야만 파일에 액세스할 수 있습니다.

 

B

문제의 핵심은 ' 다른 AWS 고객이 데이터에 액세스 시 비용 최소화'입니다. 데이터가 있는 S3 버킷을 요청자 지불 버킷으로 구성 시, 요청자가 버킷 소유자 대신 요청 및 데이터 다운로드 비용을 지불하도록 할 수 있기에 비용은 0원이 됩니다.

A - VPC는 인터넷 데이터 전송 요금을 줄일 때 좋은 솔루션이지만, 보기 B의 비용 효율을 따라오지 못합니다.

참고 : https://docs.aws.amazon.com/ko_kr/AmazonS3/latest/userguide/RequesterPaysBuckets.html

 

No38.

비즈니스는 AWS Lambda 함수를 사용하여 Amazon S3에서 데이터를 검색하고 해독합니다. 이러한 파일은 AWS Key Management Service(AWS KMS CMK)용 고객 마스터키를 사용하여 암호화됩니다. 솔루션 설계자는 필요한 권한을 적절하게 설정하는 솔루션을 만들어야 합니다.

어떤 작업 조합이 이 작업을 수행합니까? (2개를 선택하세요.)

 

​A. kms:decrypt 권한을 Lambda 함수의 리소스 정책에 연결합니다.

B. KMS 키 정책에서 Lambda IAM 역할에 대한 암호 해독 권한을 부여합니다.

C. KMS 키 정책에서 Lambda 리소스 정책에 대한 암호 해독 권한을 부여합니다.

D. kms:decrypt 권한이 있는 새 IAM 정책을 생성하고 정책을 Lambda 함수에 연결합니다.

E. kms:decrypt 권한이 있는 새 IAM 역할을 생성하고 실행 역할을 Lambda 함수에 연결합니다.​

 

B,E

IAM 역할과 리소스 정책의 차이점에 대해 명확하게 알고 있어야 합니다. 보기 A를 예를 들어 설명하자면, 리소스 기반 정책은 다른 계정이나 서비스에 액세스하여 사용자를 대신해 사용자의 서비스를 사용할 수 있도록 합니다. 때문에 보기 A에 따르면, 다른 사용자 혹은 서비스가 사용자의 Lambda를 해독할 수 있는 권한을 줄 것이고, 사용자는 Lambda를 해독할 수 없게 됩니다. 때문에 IAM 역할을 통해 사용자가 원하는 복호화(Decryption) 권한을 부여하는 것이 옳습니다.


참고 : 보기 B - https://docs.aws.amazon.com/ko_kr/kms/latest/developerguide/key-policies.html - (AWS KMS의 키 정책)
보기 E - https://docs.aws.amazon.com/ko_kr/lambda/latest/dg/lambda-intro-execution-role.html - (AWS Lambda 실행 역할)

추가 설명 : IAM Policy에 관해 정말 깔끔하게 설명되어 있는 블로그입니다. 한 번쯤 보시는 것을 추천드립니다. https://musma.github.io/2019/11/05/about-aws-iam-policy.html

 

No39.

기업은 온-프레미스 Windows Server에서 Microsoft.NET 응용 프로그램을 운영합니다. 이 프로그램은 Oracle Database Standard Edition 서버를 사용하여 데이터를 저장합니다. 이 회사는 AWS로 마이그레이션하는 과정에 있으며 프로세스 전반에 걸쳐 개발 수정 사항을 최소화하려고 합니다. Amazon Web Services 애플리케이션 환경은 매우 안정적이어야 합니다.

이러한 요구 사항을 달성하기 위해 조직은 어떤 단계를 함께 취해야 합니까? (2개를 선택하세요.)

 

A. .NET Core를 실행하는 AWS Lambda 함수를 사용하여 애플리케이션을 서버리스로 리팩터링합니다.

B. 다중 AZ 배포에서 .NET 플랫폼을 사용하여 AWS Elastic Beanstalk에서 애플리케이션을 다시 호스팅합니다.

C. Amazon Linux Amazon 머신 이미지(AMI)를 사용하여 Amazon EC2에서 실행되도록 애플리케이션을 다시 플랫폼화합니다.

D. AWS Database Migration Service(AWS DMS)를 사용하여 다중 AZ 배포에서 Oracle 데이터베이스에서 Amazon DynamoDB로 마이그레이션합니다.

E. AWS DMS(AWS Database Migration Service)를 사용하여 다중 AZ 배포에서 Oracle 데이터베이스에서 Amazon RDS Oracle로 마이그레이션합니다.

 

B,E

문제의 핵심은 '수정 최소화'입니다. 때문에 문제에 제시된 기업의 여러 서비스들을 그대로 활용할 수 있는 AWS의 서비스를 사용하는 것이 옳습니다.

A, C - '수정 최소화'의 목표를 이루지 못합니다.
D - Oracle을 DynamoDB로 이전하는 것은 적절하지 않습니다.

 

No40.

비즈니스는 자연재해가 발생하기 쉬운 지역에 위치하여 데이터 센터 공급업체로부터 고르지 못한 서비스를 경험합니다. 조직은 AWS 클라우드로 완전히 이동할 준비가 되어 있지 않지만 온프레미스 데이터 센터에 장애가 발생할 경우 AWS에서 장애 조치 시나리오를 원합니다.

비즈니스는 제3자 제공 업체에 연결되는 웹 서버를 운영합니다. AWS와 온프레미스에 저장된 데이터는 일관성이 있어야 합니다.

솔루션 아키텍트에 따르면 어떤 솔루션이 다운타임을 최소화해야 합니까?

 

A. Amazon Route 53 장애 조치 레코드를 구성합니다. Auto Scaling 그룹의 Application Load Balancer 뒤에서 Amazon EC2 인스턴스에서 애플리케이션 서버를 실행합니다. Amazon S3에 데이터를 백업하기 위해 저장된 볼륨으로 AWS Storage Gateway를 설정합니다.

B. Amazon Route 53 장애 조치 레코드를 구성합니다. 스크립트에서 AWS CloudFormation 템플릿을 실행하여 Application Load Balancer 뒤에 Amazon EC2 인스턴스를 생성합니다. Amazon S3에 데이터를 백업하기 위해 저장된 볼륨으로 AWS Storage Gateway를 설정합니다.

C. Amazon Route 53 장애 조치 레코드를 구성합니다. VPC와 데이터 센터 간에 AWS Direct Connect 연결을 설정합니다. Auto Scaling 그룹의 Amazon EC2에서 애플리케이션 서버를 실행합니다. AWS Lambda 함수를 실행하여 AWS CloudFormation 템플릿을 실행하여 Application Load Balancer를 생성합니다.

D. Amazon Route 53 장애 조치 레코드를 구성합니다. AWS Lambda 함수를 실행하여 AWS CloudFormation 템플릿을 실행하여 두 개의 Amazon EC2 인스턴스를 시작합니다. Amazon S3에 데이터를 백업하기 위해 저장된 볼륨으로 AWS Storage Gateway를 설정합니다. VPC와 데이터 센터 간에 AWS Direct Connect 연결을 설정합니다.

 

A


문제의 핵심은 '온프레미스의 장애 시 AWS에서의 장애 조치 솔루션'입니다. 이 말이 의미하는 바는 '최소 가동 중지 시간'입니다. 때문에 Auto Scaling과 ALB를 통해 가용성 및 탄력성을 확보하고, 문제의 마지막에 명시된 'AWS와 온프레미스 간의 일관된 데이터 저장'을 위해서 Storage GW를 통해 S3에 데이터를 저장하면 됩니다.

B - ALB에 Auto Scaling이 없습니다.
C - Direct Connect(DX)가 아닌 Storage GW가 필요합니다.
반응형

 

No41.

기업에 AWS에서 호스팅하는 웹 사이트가 있습니다. 데이터베이스 백엔드는 Amazon RDS for MySQL에서 호스팅되며 확장성 요구 사항을 수용하기 위해 기본 인스턴스와 5개의 읽기 전용 복제본으로 구성됩니다. 일관된 사용자 경험을 제공하려면 읽기 전용 복제본이 원본 인스턴스보다 1초 이상 늦어서는 안 됩니다.

웹사이트의 트래픽이 계속 증가함에 따라 복제본이 피크 시간에 훨씬 뒤쳐져 검색 결과가 일치하지 않을 때 사용자 불만이 발생합니다. 솔루션 설계자의 목표는 애플리케이션의 코드 또는 운영 요구 사항을 거의 수정하지 않고 복제 대기 시간을 최소화하는 것입니다.

어떤 솔루션이 이러한 기준을 충족합니까?​

 

A. 데이터베이스를 Amazon Aurora MySQL로 마이그레이션합니다. MySQL 읽기 전용 복제본을 Aurora 복제본으로 교체하고 Aurora Auto Scaling 활성화

B. 데이터베이스 앞에 Amazon ElastiCache for Redis 클러스터를 배포합니다. 데이터베이스 읽기 끝점을 쿼리하기 전에 캐시를 확인하도록 웹 사이트를 수정합니다.

C. Amazon RDS에서 Amazon EC2 컴퓨팅 인스턴스에서 실행되는 MySQL로 데이터베이스를 마이그레이션합니다. 모든 복제본 노드에 대해 매우 큰 컴퓨팅 최적화 인스턴스를 선택합니다.

D. 데이터베이스를 Amazon DynamoDB로 마이그레이션합니다. 처음에는 주문형 용량 확장이 활성화된 상태에서 필요한 처리량을 지원하기 위해 많은 수의 RCU(읽기 용량 단위)를 프로비저닝합니다.

 

A

문제의 키포인트는 '복제 대기 시간의 최소화'입니다. 이를 '사용자의 응답 지연 시간 최소화'로 잘 못 이해하여 문제를 틀리기 쉽습니다. Aurora의 복제 지연이 지역 내에서 100ms이고 지역간 "1초 미만"이기 때문에 가장 적합합니다.

B - ElastiCashe for Redis는 문제의 요구사항인 코드 최소화를 달성하지 못합니다.
C - 관리 서비스 대신 자체적으로 EC2를 관리하도록 되어 있이게 복제 지연에 도움이 되는지 확실하지 않습니다.
D - MySQL No-sqlDynamoDB로 마이그레이션하려면 많은 수정을 동반해야 합니다.

 

No42.

기업에서 Fargate ECS 작업 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터에 새 애플리케이션을 배포하고 있습니다. 회사는 실행 시 상당한 양의 트래픽을 수신하는 프로그램을 예상하여 CPU 및 메모리 사용을 모니터링하고 있습니다. 그러나 회사는 사용량이 감소함에 따라 비용 절감을 원합니다.

솔루션 설계자는 어떤 권장 사항을 제시해야 합니까?

 

A. Amazon EC2 Auto Scaling을 사용하여 이전 트래픽 패턴을 기반으로 특정 기간에 확장합니다.

B. AWS Lambda 함수를 사용하여 Amazon CloudWatch 경보를 트리거하는 지표 위반을 기반으로 Amazon ECS를 확장합니다.

C. ECS 지표 위반이 Amazon CloudWatch 경보를 트리거할 때 확장하는 간단한 조정 정책과 함께 Amazon EC2 Auto Scaling을 사용합니다.

D. 대상 추적 정책과 함께 AWS Application Auto Scaling을 사용하여 ECS 지표 위반이 Amazon CloudWatch 경보를 트리거할 때 확장합니다.

 

D

ECS 의 시작 유형은 EC2(관리할 서버 있음)과 Fargate(관리할 서버 없음)으로 나뉩니다. 기업에서는 Fargate를 사용하여 ECS를 배포하고 있기에 보기 A, C의 EC2를 사용하지 않습니다. 또한 Lambda는 Auto Scaling 작업에 사용되지 않습니다. 대상 추적 정책을 이용하면 메트릭 지표를 따라 자동 크기 조정이 가능합니다.

 

No43.

비즈니스가 Amazon Web Services(AWS) 클라우드로 전환하고 있습니다. 이동할 초기 워크로드는 파일 서버입니다. 파일 공유는 SMB(서버 메시지 블록) 프로토콜을 통해 액세스할 수 있어야 합니다.

이 기준을 충족하는 AWS 관리형 서비스는 무엇입니까?

 

A. Amazon Elastic Block Store(Amazon EBS)

B. 아마존 EC2

C. 아마존 FSx

D. 아마존 S3

 

C

Windows 파일 서버용 AWS FSx는 업계 표준 SMB 프로토콜을 통해 액세스할 수 있는 완전 관리형 파일 스토리지를 제공합니다. 참고로, 보기에 Windows 파일 서버용 AWS FSx(Amazon FSx for Windows File Server)이라고 명시되어 있어야지 완벽하다고 할 수 있습니다. AWS FSx는 Windows 파일 서버용 AWS FSx와 고성능 워크로드용 Lustre용 AWS FSx로 구분되기 때문입니다.

 

No44.

한 기업이 Amazon Web Services(AWS)에서 공개 웹 애플리케이션을 구축할 계획입니다. 아키텍처는 Virtual Private Cloud(VPC) 내부에 포함되고 Elastic Load Balancer(ELB)로 보호되는 Amazon EC2 인스턴스로 구성됩니다. DNS는 타사 공급자가 관리합니다. 비즈니스의 솔루션 설계자는 대규모 DDoS 공격을 감지하고 방어하기 위한 솔루션을 제공해야 합니다.

어떤 솔루션이 이러한 기준을 충족합니까?

 

​A. 계정에서 Amazon GuardDuty를 활성화합니다.

B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.

C. AWS Shield를 활성화하고 여기에 Amazon Route 53을 할당합니다.

D. AWS Shield Advanced를 활성화하고 ELB를 할당합니다.

 

D

Shield Standard는 기본적으로 활성화되어 있습니다. 때문에 따로 활성화할 필요가 없습니다. Shield Advanced에는 L4뿐만 아니라 L7도 포함됩니다. 또한 DDoS 보호 기능을 제공하며, WAF가 기본적으로 제공됩니다. 참고로 WAF는 L7을 보호하며, DDoS, SQL 주입 및 XSS(사이트 간 스크립팅)같은 L7 기반 공격으로부터 보호합니다.

A - GuardDuty는 로그에 대한 탐지 및 감시만 할 뿐이지 직접 대응하지 않습니다.
B - Inspector 또한 마찬가지로 로그에 대한 탐지 및 감시만 할 뿐입니다.
C - 문제의 기업에서 Route 53을 배포했는지 알 수 없습니다.(DNS 타사 공급) 따라서 ELB에서 지원하는 것이 적절합니다.

 

No45.

솔루션 설계자는 Amazon Linux 기반 HPC(고성능 컴퓨팅) 환경을 위한 스토리지를 만들고 있습니다. 워크로드는 공유 스토리지와 고성능 컴퓨팅을 사용해야 하는 수많은 엔지니어링 도면을 저장하고 분석합니다.

어떤 스토리지 선택이 가장 좋습니까?

 

A. Amazon Elastic File System(Amazon EFS)

B. Lustre Amazon FSx

C. Amazon EC2 인스턴스 스토어

D. Amazon Elastic Block Store(Amazon EBS) 프로비저닝된 IOPS SSD(io1)

 

B

Linux 기반 스토리지 환경을 HPC(고성능 컴퓨팅)으로 구성하려면 Lustre용 AWS FSx를 사용하는 것이 옳습니다. AWS FSx for Lustre를 사용하면 고성능 파일 시스템을 쉽고 비용 효율적으로 시작할 수 있습니다.

 

우리 모두 문제 중간 중간 배너는 한번씩 누르면서 문제 풀어요.

 

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기