문제풀이 열심히 준비했습니다. 중간중간 뜨는 배너는 한번씩 클릭하고 풀어주시면 감사하겠습니다.
No36.
비즈니스에는 많은 AWS 리전에 설치된 애플리케이션을 사용하여 전 세계의 사용자가 있으며 공개 고정 IP 주소가 노출됩니다. 사용자가 인터넷을 통해 프로그램을 사용할 때 성능 문제가 발생합니다.
솔루션 설계자는 인터넷 대기 시간을 줄이는 수단으로 무엇을 제안해야 합니까?
A. AWS Global Accelerator를 설정하고 엔드포인트를 추가합니다.
B. 여러 리전에 AWS Direct Connect 위치를 설정합니다.
C. 애플리케이션에 액세스할 수 있도록 Amazon CloudFront 배포를 설정합니다.
D. 트래픽을 라우팅하도록 Amazon Route 53 지리 근접 라우팅 정책을 설정합니다.
A
문제의 키포인트는 '고정 IP주소'이며, Global Accelerator의 일반적인 사용 사례입니다. 또한 Global Accelerator를 사용하면 Edge Location을 통해 요청 및 응답을 수행하기에 사용자의 인터넷 대기 시간을 줄일 수 있습니다.
No37.
비즈니스는 AWS에서 보고 솔루션을 개발해야 합니다. SQL 쿼리는 데이터 분석가가 데이터에 대해 실행할 수 있도록 솔루션에서 지원되어야 합니다. 데이터 분석가는 매일 10개 미만의 쿼리를 수행합니다. 회사는 매일 3GB의 새로운 데이터를 온프레미스 관계형 데이터베이스에 추가합니다. 보고 작업을 수행하려면 이 데이터를 AWS로 보내야 합니다.
솔루션 설계자는 이러한 요구 사항을 달성하기 위한 가장 저렴한 방법으로 무엇을 제안해야 합니까?
A. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 Amazon S3로 데이터를 복제합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
B. Amazon Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon Elasticsearch Service(Amazon ES) 클러스터로 전송합니다. Amazon ES에서 쿼리를 실행합니다.
C. 온-프레미스 데이터베이스에서 데이터의 일일 복사본을 내보냅니다. AWS Storage Gateway 파일 게이트웨이를 사용하여 내보내기를 저장하고 Amazon S3에 복사합니다. Amazon EMR 클러스터를 사용하여 데이터를 쿼리합니다.
D. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 데이터를 복제하고 Amazon Redshift 클러스터에 로드합니다. Amazon Redshift 클러스터를 사용하여 데이터를 쿼리합니다.
A
문제는 매일 발생되는 데이터를 온프레미스 RDS로 저장하고 있으며, 보고 작업을 수행하기 위해 AWS로 데이터를 보내야 합니다. 이때 솔루션은 비용 효율적이야 합니다. S3는 Redshift보다 저렴하며. Redshift의 사용 사례는 일반적으로 높은 데이터(페타바이트 규모)를 위한 것입니다. 문제는 얼마 되지 않는 데이터에 관해서 얘기중이므로 Redshift는 적절하지 않습니다.
또한 S3와 통합되는 Athena는 서버리스로 인프라 비용을 지불하지 않습니다. 이는 사용할 때만 그에 따라 비용을 지불합니다.
No38.
기업은 Amazon S3 버킷을 사용하여 다양한 위치의 여러 부서에서 제출한 데이터를 저장하고 있습니다. 재무 관리자는 AWS Well-Architected 평가 중에 매월 10TB의 S3 Standard 스토리지 데이터가 청구되었음을 발견했습니다. 그러나 명령을 실행하여 Amazon S3용 AWS Management 콘솔에서 모든 파일과 폴더를 선택하면 총 크기가 5TB가 됩니다.
이러한 불일치의 잠재적인 이유는 무엇입니까? (2개를 선택하세요.)
A. 일부 파일은 중복 제거로 저장됩니다.
B. S3 버킷에 버전 관리가 활성화되어 있습니다.
C. 불완전한 S3 멀티파트 업로드가 있습니다.
D. S3 버킷에는 AWS Key Management Service(AWS KMS)가 활성화되어 있습니다.
E. S3 버킷에 Intelligent-Tiering이 활성화되어 있습니다.
B,C
먼저 버전 관리에 대한 설명입니다. 버전 관리가 활성화되고 객체에 삭제 마커가 있는 경우에 저장 비용을 지불해야합니다. 다음은 불완전한 S3 멀티파트 업로드입니다. S3 버킷에서 불완전한 멀티파트 업로드를 수동으로 나열하고 중단할 수 있지만 조직 내의 업로드, 버킷 및 계정 수가 증가함에 따라 수동으로 하는 것은 번거롭습니다. 또한 AWS MAnagement 콘솔에서는 불완전한 멀티파트 업로드의 일부를 볼 수 없습니다. 두 이유 때문에 보이지 않는 5TB의 비용이 청구되는 것입니다.
A - S3에서 중복 제거라는 것은 없습니다.
참고 : S3 버전 관리 비용 - https://acloud.guru/forums/aws-certified-solutions-architect-associate/discussion/-Ka9czoG6ryzzuyr6PFp/s3_versioning_costs
불완전한 S3 멀티파트 업로드 - https://aws.amazon.com/ko/blogs/aws-cloud-financial-management/discovering-and-deleting-incomplete-multipart-uploads-to-lower-amazon-s3-costs/
No39.
AWS에서 비즈니스는 전자 상거래 웹 사이트를 만들고 있습니다. 이 웹 사이트는 Amazon Aurora MySQL 다중 AZ 배포에 MySQL 데이터베이스를 포함하는 3계층 설계로 구성되어 있습니다. 인터넷 애플리케이션은 고가용성이어야 하며 처음에는 3개의 가용 영역이 있는 AWS 리전에 배포됩니다. 프로그램은 겪고 있는 로드의 양을 나타내는 통계를 생성합니다.
어떤 솔루션이 이러한 기준을 충족합니까?
A. 예약된 조정이 있는 ALB 뒤에서 Amazon EC2 Auto Scaling을 사용하여 ALB(Application Load Balancer) 구성
B. 간단한 조정 정책을 사용하여 ALB 뒤에 Application Load Balancer(ALB) 및 Amazon EC2 Auto Scaling을 구성합니다.
C. NLB(Network Load Balancer)를 구성하고 NLB 뒤에서 Amazon EC2 Auto Scaling을 사용하여 스팟 집합을 시작합니다.
D. 대상 추적 조정 정책을 사용하여 ALB 뒤에서 Application Load Balancer(ALB) 및 Amazon EC2 Auto Scaling을 구성합니다.
D
문제의 키포인트는 '프로그램이 수행중인 로드의 양에 대한 통계'입니다. 이미 이런 통계에 대해 지표가 생성되어 있기에 이를 활용하는 것이 적절합니다. 대상 추적 조정 정책은 ASG와 함께 더 잘 작동하며, 사전 정의된 지표에 대해 이를 활용할 수 있습니다. 지표에는 "ALBRequestConutPerTarget - ALB 대상 그룹에서 대상별로 이행된 요청 수" 등이 있습니다.
참고 : https://docs.aws.amazon.com/ko_kr/autoscaling/ec2/userguide/as-scaling-target-tracking.html
No40.
게임 회사는 AWS를 사용하여 브라우저 기반 애플리케이션을 호스팅합니다. 애플리케이션 사용자는 Amazon S3에 저장된 많은 양의 영화와 사진을 소비합니다. 이 자료는 모든 사용자에게 일관됩니다.
이 프로그램은 수백만 명의 사용자가 매일 이러한 미디어 파일에 액세스하면서 인기를 얻었습니다. 회사는 원본에 대한 부담을 최소화하면서 소비자에게 파일을 제공하기를 원합니다.
비용 효율성 측면에서 이러한 기준에 가장 적합한 옵션은 무엇입니까?
A. 웹 서버 앞에 AWS Global Accelerator 액셀러레이터를 배포합니다.
B. S3 버킷 앞에 Amazon CloudFront 웹 배포를 배포합니다.
C. 웹 서버 앞에 Amazon ElastiCache for Redis 인스턴스를 배포합니다.
D. 웹 서버 앞에 Amazon ElastiCache for Memcached 인스턴스를 배포합니다.
B
문제의 키포인트는 '웹에 배포되는 콘텐츠의 원본에 대한 부담의 최소화'입니다. S3 버킷을 CloudFront 배포의 Origin(원본)으로 처음 설정하면 모든 사용자에게 버킷의 파일에 대한 권한을 부여하게 됩니다. 이에 따라 누구나 CloudFront 또는 AWS S3 URL을 통해 파일에 액세스할 수 있습니다. CloudFront는 OAI(Origin Access ID)을 사용하여 배포와 연결합니다. OAI를 원본과 연결하여 S3 콘텐츠 중 일부 및 전부를 보호할 수 있습니다. 또한 CloudFront를 통해 S3 파일에 액세스 하면 OAI가 파일을 대신 가져옵니다. 이때 S3 URL을 통해 직접 파일을 요청하는 경우 액세스는 거부됩니다.
No41.
솔루션 설계자는 고가용성 배스천 호스트 아키텍처를 설계해야 합니다. 솔루션은 단일 AWS 리전 내에서 강력해야 하며 유지 관리 노력이 거의 필요하지 않습니다.
솔루션 설계자는 이러한 기준을 충족하기 위해 어떤 조치를 취해야 합니까?
A. UDP 리스너를 사용하여 Auto Scaling 그룹에서 지원하는 Network Load Balancer를 생성합니다.
B. 파티션 배치 그룹의 인스턴스가 있는 스팟 집합에서 지원하는 Network Load Balancer를 생성합니다.
C. 다른 가용 영역의 기존 서버가 지원하는 Network Load Balancer를 대상으로 생성합니다.
D. 여러 가용 영역의 인스턴스를 대상으로 하여 Auto Scaling 그룹에서 지원하는 Network Load Balancer를 생성합니다.
D
문제가 요구하는 목표는 고가용성(HA)과 탄력성을 가진 낮은 관리 노력의 아키텍처입니다. 이는 Auto Scaling을 통해 NLB를 생성하면 해결됩니다. 배스천 인스턴스가 만약 다운된다 하더라도 Auto Scaling을 통해 자동적으로 다시 시작됩니다.
C - 고가용성을 얻을 수 있지만 탄력성에 대한 목표를 이루지 못했습니다. Auto Scaling이 없기에 인스턴스가 다운된다면 수동으로 다시 시작해야 합니다.
No42.
비즈니스의 CRM(고객 관계 관리) 애플리케이션은 Microsoft SQL Server를 실행하는 Amazon RDS 데이터베이스 인스턴스에 데이터를 저장합니다. 데이터베이스는 회사의 정보 기술 담당자가 관리합니다. 데이터베이스에는 기밀 정보가 포함됩니다. 조직은 IT 전문가가 데이터에 액세스할 수 없고 승인된 사람만 볼 수 있도록 보장하기를 원합니다.
솔루션 설계자는 데이터를 보호하기 위해 어떤 조치를 취해야 합니까?
A. Amazon RDS 관리형 키로 클라이언트 측 암호화를 사용합니다.
B. AWS Key Management Service(AWS KMS) 고객 관리형 키로 클라이언트 측 암호화를 사용합니다.
C. AWS Key Management Service(AWS KMS) 기본 암호화 키로 Amazon RDS 암호화를 사용합니다.
D. AWS Key Management Service(AWS KMS) 고객 관리형 키로 Amazon RDS 암호화를 사용합니다.
D
고객의 데이터는 현재 RDS에 있습니다. 그렇기 때문에 클라이언트 측의 암호화는 의미가 없습니다. 클라이언트 측의 암호화는 클라이언트에서 서버로 데이터가 넘어올 때 암호화되는 것이기 때문입니다. KMS의 고객 관리형 키를 통해 RDS의 모든 로그, 백업 및 스냅샷이 암호화되기 때문에 D는 적절합니다.
참고 : https://docs.aws.amazon.com/ko_kr/AmazonRDS/latest/UserGuide/Overview.Encryption.html
No43.
Amazon Route 53 지연 시간 기반 라우팅은 회사에서 전 세계 고객을 위해 UDP 기반 애플리케이션으로 요청을 라우팅하는 데 사용됩니다. 이 프로그램은 미국, 아시아 및 유럽에 있는 회사 자체 데이터 센터 내의 중복 서버에서 호스팅 됩니다. 애플리케이션은 회사의 규정 준수 표준에 따라 온프레미스에서 호스팅 되어야 합니다. 조직은 애플리케이션의 성능과 가용성을 향상하기를 원합니다.
이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?
A. 3개의 AWS 리전에서 3개의 NLB(Network Load Balancer)를 구성하여 온프레미스 엔드포인트를 처리합니다. AWS Global Accelerator를 사용하여 액셀러레이터를 생성하고 NLB를 엔드포인트로 등록합니다. 가속기 DNS를 가리키는 CNAME을 사용하여 애플리케이션에 대한 액세스를 제공합니다.
B. 3개의 AWS 리전에서 3개의 ALB(Application Load Balancer)를 구성하여 온프레미스 엔드포인트를 처리합니다. AWS Global Accelerator를 사용하여 액셀러레이터를 생성하고 ALB를 엔드포인트로 등록합니다. 가속기 DNS를 가리키는 CNAME을 사용하여 애플리케이션에 대한 액세스를 제공합니다.
C. 3개의 AWS 리전에서 3개의 NLB(Network Load Balancer)를 구성하여 온프레미스 엔드포인트를 처리합니다. Route 53에서 3개의 NLB를 가리키는 지연 시간 기반 레코드를 생성하고 이를 Amazon CloudFront 배포의 오리진으로 사용합니다. CloudFront DNS를 가리키는 CNAME을 사용하여 애플리케이션에 대한 액세스를 제공합니다.
D. 3개의 AWS 리전에서 3개의 Application Load Balancer(ALB)를 구성하여 온프레미스 엔드포인트를 처리합니다. Route 53에서 3개의 ALB를 가리키는 지연 시간 기반 레코드를 생성하고 이를 Amazon CloudFront 배포의 오리진으로 사용합니다. CloudFront DNS를 가리키는 CNAME을 사용하여 애플리케이션에 대한 액세스를 제공합니다.
A
문제의 핵심은 'UDP 기반 애플리케이션'이며, CloudFront와 Global Accelerator의 차이점에 관한 문제입니다. 두 서비스 모두 Edge Location을 사용하여 최적의 성능을 얻게 합니다. 하지만 차이점이 있습니다. CloudFront는 CDN로 주로 콘텐츠를 캐시 하는데 최적화되어 있습니다. Global Accelerator는 사용자에서 애플리케이션까지 가장 가까운 리전 엔드포인트로 가는 최적의 경로를 찾습니다. 또한 가장 큰 차이점은 CloudFront는 HTTP 프로토콜을 처리하도록 설계되었으며, Global Accelerator는 HTTP 및 TCP/UDP와 같은 프로토콜에 사용됩니다. 때문에 UDP 기반의 애플리케이션에 대한 경로를 찾고 성능을 올리기 위해선 Global Accelerator를 사용해야 합니다. (참고로 UDP는 NLB로 로드밸런싱 되며 애플리케이션은 ALB로 로드밸런싱 됨)
참고 : https://tutorialsdojo.com/aws-global-accelerator-vs-amazon-cloudfront/
No44.
한 기업이 대규모 멀티플레이어 온라인 게임을 개발 중입니다. 게임은 UDP를 통해 통신하므로 클라이언트와 백엔드가 짧은 대기 시간을 갖는 것이 중요합니다. 백엔드는 다양한 AWS 리전에서 확장될 수 있는 Amazon EC2 인스턴스에서 호스팅 됩니다. 회사는 전 세계 소비자가 항상 게임에 액세스할 수 있도록 높은 수준의 게임 가용성을 요구합니다.
이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?
A. Amazon CloudFront를 배포하여 글로벌 트래픽을 지원합니다. 여러 리전의 EC2 인스턴스에 대한 액세스를 허용하도록 오리진 그룹으로 CloudFront를 구성합니다.
B. 한 지역에 Application Load Balancer를 배포하여 게임의 백엔드 인스턴스를 호스팅 하는 각 지역의 EC2 인스턴스에 트래픽을 분산합니다.
C. Amazon CloudFront를 배포하여 오리진 액세스 ID(OAI)를 지원합니다. OAI를 각 리전의 EC2 인스턴스와 연결하여 글로벌 트래픽을 지원합니다.
D. 각 지역에 Network Load Balancer를 배포하여 트래픽을 분산합니다. AWS Global Accelerator를 사용하여 올바른 리전 엔드포인트로 트래픽을 라우팅하십시오.
D
위의 문제와 비슷한 내용입니다. 게임의 경우 빠른 속도를 위해서 보통 UDP를 사용하여 통신됩니다. Global Accelerator를 사용하면 Edge Location을 사용해 가장 가까운 리전 엔드포인트로 가는 최적의 경로를 찾기 때문에 소비자가 빠른 속도로 액세스가 가능합니다. CloudFront는 보통 정적 웹 페이지에 많이 사용됩니다.
No45.
비즈니스에서 회계 시스템을 온프레미스 데이터 센터에서 AWS 리전으로 이전하려고 합니다. 데이터 보안과 변경 불가능한 감사 로그에 우선순위를 부여해야 합니다. 조직은 모든 AWS 작업에 대해 규정 준수 감사를 수행해야 합니다. 조직에서 AWS CloudTrail을 활성화했지만 이러한 기준을 준수하는지 확인하려고 합니다.
솔루션 설계자는 CloudTrail을 보호하고 보호하기 위해 어떤 보호 장치와 보안 조치를 사용해야 합니까? (2개를 선택하세요.)
A. CloudTrail 로그 파일 유효성(무결성) 검사를 활성화합니다.
B. CloudTrail 처리 라이브러리를 설치합니다.
C. CloudTrail에서 Insights 이벤트 로깅을 활성화합니다.
D. 온프레미스 리소스에서 사용자 지정 로깅을 활성화합니다.
E. CloudTrail이 AWS KMS 관리형 암호화 키(SSE-KMS)와 함께 서버 측 암호화를 사용하도록 구성되었는지를 모니터링하는 AWS Config 규칙을 생성합니다.
A,E
로그 파일 유효성(무결성) 검사는 S3 버킷에 저장된 AWS CloudTrail 로그 파일의 무결성을 검증하고 CloudTrail이 S3 버킷으로 로그 파일을 전달한 이후 로그 파일이 변경, 수정 또는 삭제되었는지를 감시할 수 있습니다. IT 보안 및 감사 프로세스에서 로그 파일 푸결성 검증을 사용할 수 있습니다. 이제 보기 E 설명입니다. CloudTrail은 지정된 S3 서버 측 암호화(SSE)를 사용하여 지정된 S3 버킷에 전달된 모든 로그 파일을 암호화합니다. 필요한 경우 AWS KMS키로 로그 파일을 암호화하여 CloudTrail 로그 파일에 보안 계층을 추가하기도 합니다. S3는 암호 해독 권한이 있는 경우 로그 파일의 암호를 자동으로 해독합니다.
참고 : https://docs.aws.amazon.com/ko_kr/awscloudtrail/latest/userguide/best-practices-security.html
No46.
솔루션 설계자는 Amazon API Gateway와 함께 사용할 새로운 서비스를 개발 중입니다. 서비스의 요청 패턴은 초당 0에서 500까지 범위가 불규칙합니다. 백엔드 데이터베이스에 유지되어야 하는 전체 데이터양은 이제 1GB 미만이며 향후 확장에 대해 예측할 수 없습니다. 간단한 키-값 쿼리를 사용하여 데이터를 쿼리 할 수 있습니다.
이러한 요구 사항에 가장 적합한 AWS 서비스 조합은 무엇입니까? (2개를 선택하세요.)
A. AWS Fargate
B. AWS Lambda
C. Amazon DynamoDB
D. Amazon EC2 Auto Scaling
E. MySQL 호환 Amazon Aurora
B,C
Fargate와 Lambda가 헷갈리는 문제입니다. 문제의 핵심은 '예측되지 않는 요청 패턴'입니다. Fargate/Lambda/Auto Scaling 모두 사용될 수 있지만, Auto Scaling의 옵션에는 EC2가 있습니다. 문제에서 요청 패턴은 0일 경우도 있다고 했기 때문에 EC2는 그 경우에도 실행되고 있어 적합하지 않게 됩니다. ECS에는 2가지의 배포 모드가 있는데, Fargate/EC2입니다. Fargate는 자체적으로 확장되지 않으며, Auto Scaling을 통해서 확장이 가능합니다. 때문에 불규칙적인 패턴을 가지며. 향후 확장에 대해 예측하지 못하는 경우 Lambda를 사용해야 합니다. DynamoDB의 선정 이유는 간단합니다. 문제에서 '간단한 키-값 쿼리'를 사용한다고 했기에 DynamoDB가 적절합니다. (Aurora는 SQL 기반 쿼리이기 때문입니다.)
No47.
경영진은 모든 AWS VPC에서 IPv6을 허용하도록 선택했습니다. 일정 시간이 지나면 솔루션 설계자가 새 인스턴스를 생성하려고 시도하고 서브넷에 액세스 가능한 IP 주소 공간이 충분하지 않다는 오류가 발생합니다.
이를 해결하기 위한 솔루션 아키텍트의 역할은 무엇입니까?
A. VPC 생성 시 IPv6만 사용했는지 확인합니다.
B. 범위가 더 넓은 새 IPv4 서브넷을 생성한 다음 인스턴스를 시작합니다.
C. 넓은 범위의 IPv6 전용 서브넷을 새로 생성한 후 인스턴스를 시작합니다.
D. IPv4 서브넷을 비활성화하고 모든 인스턴스를 IPv6으로만 마이그레이션합니다. 완료되면 인스턴스를 시작합니다.
B
까다로운 문제입니다. 여기서 반드시 알아야 할 점은 IPv6는 단독으로 VPC에서 사용하지 못한다는 것입니다. IPv6를 사용하기 위해선 먼저 IPv4가 필요하며, VPC는 듀얼 스택 모드로 작동할 수 있기 때문에 IPv4나 IPv6 또는 둘 다를 통해 통신이 가능합니다. IPv4 와 IPv6의 통신 프로토콜은 상호 독립적입니다. 중요한 점은 VPC 및 서브넷에 대한 IPv4 지원은 VPC 및 EC2의 기본 IP 주소 지정 시스템이므로 비활성화할 수 없습니다.
C - IPv6 '전용'이라는 말은 IPv4를 사용하지 않는다는 말이기에 틀렸습니다. IPv6 단독으로 생성할 수 없습니다.
참고 : https://docs.aws.amazon.com/ko_kr/vpc/latest/userguide/vpc-migrate-ipv6.html
No48.
비즈니스는 물류(Logistics) 및 영업이라는 두 개의 AWS 계정과 함께 AWS Organizations를 사용합니다. Logistics 계정은 Amazon Redshift 클러스터의 운영을 담당합니다. Amazon EC2 인스턴스는 Sales 계정에 포함됩니다. Sales 계정은 Logistics 계정이 소유한 Amazon Redshift 클러스터에 대한 액세스 권한이 필요합니다.
솔루션 설계자는 이 요구 사항을 달성하기 위해 가장 비용 효율적인 방법으로 무엇을 제안해야 합니까?
A. 물류 계정을 소유자로, 판매 계정을 참여자로 하여 VPC 공유를 설정하여 데이터를 전송합니다.
B. Logistics 계정에서 AWS Lambda 함수를 생성하여 Sales 계정의 Amazon EC2 인스턴스로 데이터를 전송합니다.
C. Amazon Redshift 클러스터의 스냅샷을 생성하고 스냅샷을 Sales 계정과 공유합니다. Sales 계정에서 Logistics 계정이 공유하는 스냅샷 ID를 사용하여 클러스터를 복원합니다.
D. COPY 명령을 실행하여 Amazon Redshift에서 Logistics 계정의 Amazon S3 버킷으로 데이터를 로드합니다. 판매 계정에 물류 계정의 S3 버킷에 액세스할 수 있는 권한을 부여합니다.
A
VPC 공유는 다른 계정이지만 동일한 조직에 이상적인 방법입니다. 이는 가장 비용 효율적입니다. VPC 공유를 사용하면 여러 AWS 계정에서 EC2, RDS, Redshift 클러스터, Lambda 함수 같은 애플리케이션 리소스를 중앙 관리형 공유 VPC로 생성할 수 있습니다. 이에 대해 VPC(소유자)를 소유하는 계정은 동일한 조직에 속한 다른 계정(참여자)와 한 개 또는 여러 개의 서브넷을 공유 가능합니다. AWS Oraganiztions 서브넷을 공유한 후 참여자는 공유된 서브넷의 해당 애플리케이션 리소스를 보기, 생성, 수정, 삭제가 가능합니다. 하지만, 참여자는 다른 참여자 또는 VPC 소유자에 속한 리소스에 대한 액세스는 불가합니다.
참고 : https://docs.aws.amazon.com/ko_kr/vpc/latest/userguide/vpc-sharing.html
No49.
기업이 ALB(Application Load Balancer)를 사용하여 인터넷에 애플리케이션을 제공하고 있습니다. 조직은 애플리케이션 전체에서 비정상적인 트래픽 액세스 패턴을 식별합니다. 솔루션 설계자는 비즈니스에서 이러한 이상 현상을 이해하도록 지원하기 위해 인프라에 대한 가시성을 높여야 합니다.
이러한 요구 사항을 충족하는 가장 최적의 옵션은 무엇입니까?
A. Amazon Athena에서 AWS CloudTrail 로그용 테이블을 생성합니다. 관련 정보에 대한 쿼리를 생성합니다.
B. Amazon S3에 대한 ALB 액세스 로깅을 활성화합니다. Amazon Athena에서 테이블을 생성하고 로그를 쿼리 합니다.
C. Amazon S3에 대한 ALB 액세스 로깅을 활성화합니다. 텍스트 편집기에서 각 파일을 열고 각 행에서 관련 정보를 검색하십시오.
D. 전용 Amazon EC2 인스턴스에서 Amazon EMR을 사용하여 ALB에 직접 쿼리 하여 트래픽 액세스 로그 정보를 얻습니다.
B
Athena는 S3와 긴밀하게 호환되는 분석 서비스입니다. S3에 대한 ALB 액세스 로깅을 활성화하고 이를 Athena의 테이블에 로그를 쿼리 하면 적절합니다.
No50.
비즈니스 운영 팀에는 버킷에 새 항목이 생성될 때 Amazon SQS 대기열에 알림을 보내도록 설정된 Amazon S3 버킷이 이미 있습니다. 또한 개발 팀은 새 개체가 생성될 때 알림을 받기를 원합니다. 운영 팀의 현재 워크플로를 유지해야 합니다.
이러한 기준을 충족하는 솔루션은 무엇입니까?
A. 다른 SQS 대기열을 만듭니다. 버킷의 S3 이벤트를 업데이트하여 새 객체가 생성될 때 새 대기열도 업데이트합니다.
B. Amazon S3 만 대기열에 액세스하도록 허용하는 새 SQS 대기열을 생성합니다. 새 객체가 생성될 때 이 대기열을 업데이트하려면 Amazon S3를 업데이트하십시오.
C. 버킷 업데이트를 위한 Amazon SNS 주제 및 SQS 대기열을 생성합니다. 새 주제에 이벤트를 보내도록 버킷을 업데이트합니다. Amazon SNS를 폴링하도록 두 대기열을 모두 업데이트합니다.
D. 버킷 업데이트를 위한 Amazon SNS 주제 및 SQS 대기열을 생성합니다. 새 주제에 이벤트를 보내도록 버킷을 업데이트합니다. 주제의 두 대기열에 대한 구독을 추가합니다.
D
팬아웃 시나리오에 대한 문제입니다. 문제에선 S3 버킷에 대해서 두 개의 SQS 대기열을 구동하고 싶어 합니다. 이는 SNS를 사용하면 해결됩니다. SNS는 두 개 및 여러 개의 SQS 대기열을 구동이 가능하기에 적절합니다. 이는 두 대기열 모두 주제에 대한 구독을 해야지 가능한 방식입니다.
A - 다른 대상을 대상으로 하는 동일한 이벤트 유형에 대해 두 번째 이벤트 알림을 구성하려고 하면 "구성이 겹칩니다. 동일한 버킷의 구성은 공통 이벤트 유형을 공유할 수 없습니다."라는 오류가 발생합니다.
C - SQS는 SNS를 폴링 하지 않습니다.
No51.
단일 가용 영역에 있는 여러 Amazon EC2 인스턴스는 게임 회사에서 레이어 4 통신을 사용하여 플레이어와 연결하는 멀티플레이어 게임을 호스팅하는 데 사용됩니다. CTO(최고 기술 책임자)는 접근성이 높고 비용 효율적인 아키텍처를 원합니다.
이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까? (2개를 선택하세요.)
A. EC2 인스턴스 수를 늘립니다.
B. EC2 인스턴스 수를 줄입니다.
C. EC2 인스턴스 앞에 Network Load Balancer를 구성합니다.
D. EC2 인스턴스 앞에 Application Load Balancer를 구성합니다.
E. 여러 가용 영역의 인스턴스를 자동으로 추가하거나 제거하도록 Auto Scaling 그룹을 구성합니다.
C,E
문제의 키포인트는 '게임'입니다. 게임에 대한 인스턴스를 로드밸런싱 하려면 반드시 NLB를 사용하여야 합니다. 게임은 UDP로 통신하며 제공되며, NLB는 L4 계층의 UDP/TCP를 로드밸런싱 하는 로드벨런서이기 때문입니다. 또한 고가용성을 위해서 Auto Scaling 그룹을 구성하여 NLB로 로드밸런싱 합니다.
No52.
비즈니스는 Amazon S3에서 정적 웹 사이트를 실행합니다. 솔루션 설계자는 실수로 파일을 삭제한 경우에도 데이터를 복구할 수 있도록 보장해야 합니다.
이를 달성하려면 어떤 조치가 필요합니까?
A. Amazon S3 버전 관리를 활성화합니다.
B. Amazon S3 Intelligent-Tiering을 활성화합니다.
C. Amazon S3 수명 주기 정책을 활성화합니다.
D. Amazon S3 교차 리전 복제를 활성화합니다.
A
S3의 파일을 삭제한 경우에 데이터를 복구할 방법을 요구하고 있습니다. 이는 S3 버전 관리를 사용하면 해결됩니다. 버전 관리를 통해 구/현재 버전으로 S3 버킷을 지정할 수 있으며, 현재 버전을 삭제한다 하여도 이전 버전을 복원하면 됩니다.
No53.
솔루션 설계자는 회사 애플리케이션을 위한 고성능 기계 학습 기능을 갖춘 관리형 스토리지 솔루션을 개발해야 합니다. 이 애플리케이션은 AWS Fargate에서 호스팅 되며 연결된 스토리지는 동시 파일 액세스를 지원하고 우수한 성능을 제공해야 합니다.
솔루션 설계자는 어떤 스토리지 선택을 권장해야 합니까?
A. 애플리케이션에 대한 Amazon S3 버킷을 생성하고 Fargate가 Amazon S3와 통신할 수 있도록 IAM 역할을 설정합니다.
B. Amazon FSx for Lustre 파일 공유를 생성하고 Fargate가 FSx for Lustre와 통신할 수 있도록 IAM 역할을 설정합니다.
C. Amazon Elastic File System(Amazon EFS) 파일 공유를 생성하고 Fargate가 Amazon Elastic File System(Amazon EFS)과 통신할 수 있도록 하는 IAM 역할을 설정합니다.
D. 애플리케이션에 대한 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성하고 Fargate가 Amazon Elastic Block Store(Amazon EBS)와 통신할 수 있도록 하는 IAM 역할을 설정합니다.
C
B와 C가 헷갈리는 문제입니다. 문제에서 요구하는 '고성능 기계 학습'을 위해서는 Lustre는 확실히 어울립니다. 하지만 중요한 점은 Fargate와 FSx for Lustre는 함께 지원되지 않는다는 점입니다. 때문에 EFS를 사용하는 것이 적절합니다.
참고 : https://docs.aws.amazon.com/fsx/latest/LustreGuide/mounting-ecs.html
No54.
한 회사에서 전 세계 도시의 온도, 습도 및 기압에 대한 데이터를 수집합니다. 매일 평균 500GB의 데이터가 각 스테이션에서 수집됩니다. 각 위치는 고속 인터넷 연결을 갖추고 있습니다. 회사의 일기 예보 도구는 지역에 중점을 두고 일일 데이터 분석을 수행합니다.
전 세계 모든 사이트에서 데이터를 수집하는 가장 빠른 방법은 무엇입니까?
A. 대상 버킷에서 Amazon S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 버킷에 직접 업로드합니다.
B. 가장 가까운 AWS 리전의 Amazon S3 버킷에 사이트 데이터를 업로드합니다. S3 교차 리전 복제를 사용하여 대상 버킷에 객체를 복사합니다.
C. 매일 AWS Snowball 작업을 예약하여 가장 가까운 AWS 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 버킷에 객체를 복사합니다.
D. 가장 가까운 리전의 Amazon EC2 인스턴스에 데이터를 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 하루에 한 번 EBS 스냅샷을 만들어 중앙 리전으로 복사합니다. 중앙 집중식 리전에서 EBS 볼륨을 복원하고 매일 데이터에 대한 분석을 실행합니다.
A
Transfer Accleration을 사용하면 제일 먼저 가장 가까운 AWS 데이터 센터 또는 가장 가까운 엣지 로케이션으로 데이터를 가져옵니다. 문제에선 지역에 중점을 두고 데이터를 수집 후 분석하고 있습니다. 그렇기 때문에 엣지 로케이션을 사용한다면 데이터를 빠르게 수집할 수 있습니다.
B - 보기 B를 따르면 가장 가까운 AWS 센터로 데이터를 가져옵니다. 때문에 엣지 로케이션보다 속도가 느립니다. 또한 이는 잘못된 솔루션으로, 각 지역마다 불필요한 버킷이 생기기에 그에 따른 추가 요금과 지역 간 S3 전송에 대한 추가 비용도 발생합니다.
No55.
기업은 Amazon EC2 인스턴스를 사용하여 탄력적 IP 주소가 있는 퍼블릭 서브넷의 웹 서버를 호스팅 합니다. EC2 인스턴스는 기본 보안 그룹에 할당됩니다. 모든 트래픽을 거부하도록 기본 네트워크 ACL(액세스 제어 목록)이 업데이트되었습니다. 솔루션 설계자는 포트 443을 통해 모든 위치에서 웹 서버에 액세스할 수 있는지 확인해야 합니다.
이 목표를 달성하는 절차의 순서는 무엇입니까? (2개를 선택하세요.)
A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙으로 보안 그룹을 만듭니다.
B. TCP 포트 443을 대상 0.0.0.0/0으로 허용하는 규칙으로 보안 그룹을 만듭니다.
C. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
D. 소스 0.0.0.0/0에서 대상 0.0.0.0/0으로 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
E. 소스 0.0.0.0/0 및 아웃바운드 TCP 포트 32768-65535에서 대상 0.0.0.0/0으로 인바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
A,E
보안 그룹과 ACL의 차이를 명확하게 알아야 하는 문제입니다. 먼저 보안 그룹은 상태 저장(Statefull) 특성을 가져 한쪽(인바운드 또는 아웃바운드)을 허용하면 다른 한쪽의 규칙은 자동적으로 따라갑니다. 하지만 ACL은 상태 비서장(Stateless) 특성으로 인바운드/아웃바운드 둘 모두에게 명시적으로 규칙을 설정해 줘야 합니다.
추가 설명 : 참고하면 좋을 점은 OS 별 주로 사용되는 임시 포트와 임시 포트 범위입니다. 클라이언트와 같은 사용자가 웹 서버에 요청할 때 임의의 임시 포트를 사용하고 웹 서버는 항상 443(HTTPS) 또는 80(HTTP) 고정 포트를 사용합니다. 임시 포트 범위는 Windows 2008 이상 버전은 49152-65535를 사용하며, 다수의 Linux는 32768-61000을 사용합니다. 때문에 보기 E처럼 둘 모두를 허용하는 32768-65535라는 임시 포트 범위가 나오게 된 것입니다.
No56.
한 기업이 3계층 사진 공유 플랫폼을 개발했습니다. 하나의 Amazon EC2 인스턴스에서 프런트 엔드 계층을 실행하고 다른 인스턴스에서 백엔드 계층을 실행하고 세 번째 인스턴스에서 MySQL 데이터베이스를 실행합니다. 솔루션 설계자는 고가용성 및 가능한 한 최소한의 애플리케이션 수정이 필요한 솔루션을 개발하는 책임을 맡았습니다.
어떤 솔루션이 이러한 기준을 충족합니까?
A. Amazon S3를 사용하여 프런트 엔드 계층을 호스팅하고 AWS Lambda 함수를 백엔드 계층에 사용합니다. 데이터베이스를 Amazon DynamoDB 테이블로 이동하고 Amazon S3를 사용하여 사용자에게 이미지를 저장하고 제공합니다.
B. 프런트 엔드 및 백엔드 계층에 대해 로드 밸런싱 된 다중 AZ AWS Elastic Beanstalk 환경을 사용합니다. 여러 읽기 전용 복제본이 있는 Amazon RDS 인스턴스로 데이터베이스를 이동하여 사용자 이미지를 저장하고 제공합니다.
C. Amazon S3를 사용하여 백엔드 계층에 대한 Auto Scaling 그룹의 프런트 엔드 계층과 Amazon EC2 인스턴스 집합을 호스팅합니다. 데이터베이스를 메모리에 최적화된 인스턴스 유형으로 이동하여 사용자에게 이미지를 저장하고 제공합니다.
D. 프런트 엔드 및 백엔드 계층에 대해 로드 밸런싱 된 다중 AZ AWS Elastic Beanstalk 환경을 사용합니다. 다중 AZ 배포가 있는 Amazon RDS 인스턴스로 데이터베이스를 이동합니다. Amazon S3를 사용하여 사용자에게 이미지를 저장하고 제공합니다.
D
고가용성 및 최소한의 애플리케이션 수정이 주된 요구입니다. 때문에 다중 AZ로 고가용성을 해결하고, AWS Elastic Beanstalk을 사용해 용량 프로비저닝, 로드 밸런싱, 자동 크기 조정, 애플리케이션 상태 모니터링 등에 대해 자동으로 처리하도록 합니다.
B - 읽기 전용 복제본은 고가용성(HA)를 높여주지 않습니다.
C - 메모리 최적화 인스턴스도 마찬가지로 HA를 높여주지 않습니다.
No57.
한 기업에서 다양한 가용 영역(AZ)에 분산된 다양한 프라이빗 서브넷과 AZ 중 하나에 위치한 하나의 퍼블릭 서브넷이 있는 가상 프라이빗 클라우드(VPC)를 개발했습니다. NAT 게이트웨이는 퍼블릭 서브넷에서 시작됩니다. 프라이빗 서브넷 내에서 NAT 게이트웨이를 사용하여 인터넷에 연결하는 상황이 있습니다. AZ 장애가 발생한 경우 조직은 모든 인스턴스에 인터넷 연결 문제가 있는 것은 아니며 백업 계획이 준비되어 있는지 확인하려고 합니다.
솔루션 설계자에 따르면 가장 가용성이 높은 솔루션은 무엇입니까?
A. 동일한 AZ에 NAT 게이트웨이를 사용하여 새 퍼블릭 서브넷을 생성합니다. 두 NAT 게이트웨이 간에 트래픽을 분산합니다.
B. 새 퍼블릭 서브넷에 Amazon EC2 NAT 인스턴스를 생성합니다. NAT 게이트웨이와 NAT 인스턴스 간에 트래픽을 분산합니다.
C. 각 AZ에서 퍼블릭 서브넷을 생성하고 각 서브넷에서 NAT 게이트웨이를 시작합니다. 각 AZ의 프라이빗 서브넷에서 해당 NAT 게이트웨이로의 트래픽을 구성합니다.
D. 동일한 퍼블릭 서브넷에 Amazon EC2 NAT 인스턴스를 생성합니다. NAT 게이트웨이를 NAT 인스턴스로 교체하고 해당 인스턴스를 적절한 조정 정책이 있는 Auto Scaling 그룹과 연결합니다.
C
문제의 핵심은 AZ 장애를 해결하기 위한 고가용성입니다. 때문에 보기에 나와있는 '동일한 AZ'에 새 퍼블릭 서브넷을 생성하는 것은 의미가 없습니다. 다른 AZ에 퍼블릭 서브넷을 생성해 NAT GW를 구성하는 것이 적절합니다.
No58.
기업은 us-west-2 리전에 수많은 AWS 계정을 유지하고 앱을 배포합니다. 각 계정의 애플리케이션 로그는 Amazon S3 버킷에 보관됩니다. 조직은 단일 Amazon S3 버킷을 기반으로 중앙 집중식 로그 분석 시스템을 생성하려고 합니다. 통나무는 us-west-2를 떠날 수 없으며 회사는 가능한 한 운영 비용을 최소화하기를 원합니다.
이 기준을 충족하고 가장 비용 효율적인 옵션은 무엇입니까?
A. 애플리케이션 S3 버킷 중 하나에서 중앙 집중식 S3 버킷으로 객체를 복사하는 S3 수명 주기 정책을 생성합니다.
B. S3 동일 지역 복제를 사용하여 S3 버킷의 로그를 us-west-2의 다른 S3 버킷으로 복제합니다. 로그 분석에 이 S3 버킷을 사용하십시오.
C. 매일 PutObject API 작업을 사용하여 버킷의 전체 콘텐츠를 us-west-2의 다른 S3 버킷에 복사하는 스크립트를 작성합니다. 로그 분석에 이 S3 버킷을 사용하십시오.
D. 로그가 S3 버킷으로 전달될 때마다 트리거되는 AWS Lambda 함수를 이러한 계정에 작성합니다(s3:ObjectCreated:* 이벤트). us-west-2의 다른 S3 버킷에 로그를 복사합니다. 로그 분석에 이 S3 버킷을 사용하십시오.
B
동일 지역 복제(SRR)은 동일한 AWS 리전 내에서 대상 스토리지 클래스와 '동일한 이중화'를 갖는 다른 S3 객체 사본을 만듭니다. 이를 통해 다른 S3 버킷에서 로그를 자동으로 집계하여 지역 내에서 처리하거나 테스트 환경과 개발 환경 간에 실시간 복제를 구성할 수 있습니다.
참고 : https://aws.amazon.com/ko/about-aws/whats-new/2019/09/amazon-s3-introduces-same-region-replication/
No59.
기업이 온프레미스 앱을 Amazon Elastic Compute Cloud 인스턴스로 마이그레이션하고 있습니다. 그러나 가변적인 컴퓨팅 요구 사항으로 인해 EC2 인스턴스는 지정된 가용 영역에서 항상 오전 8시부터 오후 5시 사이에 사용할 수 있어야 합니다.
비즈니스에서 애플리케이션을 실행하는 데 사용해야 하는 Amazon Elastic Compute Cloud 인스턴스는 무엇입니까?
A. 정기 예약 인스턴스
B. 온디맨드 인스턴스
C. 스팟 집합의 일부인 스팟 인스턴스
D. Auto Scaling 그룹의 EC2 인스턴스
A
문제의 키포인트는 '항상' 정해진 시간입니다. 이에 대해 비용 최소화를 하기 위해선 정기 예약 인스턴스를 통해서 EC2 인스턴스를 구성하는 것이 적절합니다.
No60.
솔루션 설계자는 ECS 클러스터의 구성원인 Amazon EC2 인스턴스에서 작동하는 여러 Amazon Elastic Container Service(Amazon ECS) 작업 유형을 조정하는 솔루션을 개발하고 있습니다. 모든 작업의 출력 및 상태 데이터를 저장해야 합니다. 각 작업은 약 10MB의 데이터를 출력하며 수백 개의 작업이 동시에 작동할 수 있습니다. 시스템은 빠른 속도로 읽고 쓸 수 있도록 조정되어야 합니다. 고대로
출력은 보존되고 제거되기 때문에 총 저장 공간은 1TB를 초과하지 않아야 합니다.
솔루션 설계자가 권장해야 하는 스토리지 옵션은 무엇입니까?
A. 모든 ECS 클러스터 인스턴스에서 액세스할 수 있는 Amazon DynamoDB 테이블.
B. 프로비저닝된 처리량 모드의 Amazon Elastic File System(Amazon EFS).
C. 버스팅 처리량 모드가 있는 Amazon Elastic File System(Amazon EFS) 파일 시스템.
D. ECS 클러스터 인스턴스에 탑재된 Amazon Elastic Block Store(Amazon EBS) 볼륨.
B
문제의 키포인트는 '모든 작업의 데이터를 저장'입니다. 때문에 EFS는 적절합니다. 또한 시스템은 약 10MB 데이터 출력에 대한 작업을 많으면 수백 개까지 동시에 빠른 속도로 읽고 쓸 수 있어야 합니다. 이는 EFS의 옵션인 버스팅과 프로비저닝중 프로비저닝 처리량 모드의 EFS만 가능한 작업입니다. 기본 모드인 버스팅 모드는 EFS의 처리량은 추가요금이 발생하지 않지만, 파일 시스템이 커질수록 처리량도 비례하며 커집니다. 따라서 1TB를 초과하지 않아야 한다는 제약이 있는 상황에 시스템을 빠른 속도로 읽고 쓸 수 있는 것은 보장되지 못합니다. 선택 모드인 프로비저닝 모드는 사용한 만큼에 대한 추가 요금이 발생하지만, 파일 시스템이 상대적으로 작지만 파일 시스템의 사용량에 대해 높은 처리량이 필요한 경우 매우 적절한 방법입니다.
No61.
솔루션 설계자는 Amazon S3 버킷에 저장할 문서 검토 애플리케이션을 개발 중입니다. 솔루션은 의도하지 않은 문서 삭제를 방지하고 모든 문서 버전에 액세스할 수 있도록 보장해야 합니다. 사용자가 문서를 다운로드, 변경 및 업로드할 수 있는 기능이 필요합니다.
이러한 요구 사항을 달성하기 위해 어떤 조치를 조합하여 수행해야 합니까? (2개를 선택하세요.)
A. 읽기 전용 버킷 ACL을 활성화합니다.
B. 버킷에서 버전 관리를 활성화합니다.
C. IAM 정책을 버킷에 연결합니다.
D. 버킷에서 MFA 삭제를 활성화합니다.
E. AWS KMS를 사용하여 버킷을 암호화합니다.
B,D
S3 버킷에 대해 문서 삭제를 방지하고, 여러 버전에 관해서 요구하고 있습니다. 먼저 삭제 및 여러 버전을 위해 버전 관리를 활성화하고 이에 대해 MFA 인증 시에만 S3 버킷의 삭제를 할 수 있도록 하면 완벽합니다.
No62.
기업은 전 세계적으로 300개 이상의 웹사이트와 앱을 호스팅 합니다. 조직은 매일 30TB 이상의 클릭스트림 데이터를 분석할 수 있는 플랫폼을 원합니다.
솔루션 설계자는 전송 및 처리 중에 클릭스트림 데이터로 무엇을 해야 합니까?
A. AWS Data Pipeline을 설계하여 데이터를 Amazon S3 버킷에 보관하고 데이터로 Amazon EMR 클러스터를 실행하여 분석을 생성합니다.
B. Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성하여 데이터를 처리하고 Amazon Redshift가 분석에 사용할 수 있도록 Amazon S3 데이터 레이크로 보냅니다.
C. 데이터를 Amazon CloudFront에 캐시합니다. Amazon S3 버킷에 데이터를 저장합니다. S3 버킷에 객체가 추가되면 AWS Lambda 함수를 실행하여 분석할 데이터를 처리합니다.
D. Amazon Kinesis Data Streams에서 데이터를 수집합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3 데이터 레이크로 데이터를 전송합니다. 분석을 위해 Amazon Redshift에 데이터를 로드합니다.
D
문제에선 클릭스트림(실시간) 데이터를 수집하여 분석하기를 요구하고 있습니다. Kinesis Data Streams(KDS)를 사용하면 스트리밍 데이터를 실시간으로 수집, 처리 및 분석이 가능합니다. 또한 Firehose(KDF)를 사용하여 KDS에서 S3 데이터 레이크로 데이터를 전송할 수 있습니다. 마지막으로 전송된 데이터를 분석 전용 서비스인 Redshift를 사용해 데이터를 로드하여 분석합니다.
C - 문제의 '전 세계'라는 단어에 혹하여 선택할 수 있겠지만, 분명한 점은 콘텐츠를 캐싱/전송하는 것이 아니라 수집하려 하기에 이는 부적절합니다.
참고 : https://aws.amazon.com/ko/solutions/case-studies/hearst-data-analytics/(문제와 완벽히 같은 사례)
No63.
한 기업에서 웹 서버, 응용 프로그램 서버 및 데이터베이스 서버를 포함하는 3계층 온라인 응용 프로그램을 개발하고 있습니다. 패키지가 배달되는 동안 프로그램은 GPS 위치를 모니터링합니다. 데이터베이스는 프로그램에 의해 0-5초마다 업데이트됩니다.
추적 정보는 사용자가 배송 상태를 확인할 수 있도록 가능한 한 빨리 읽어야 합니다. 어떤 날에는 몇 개의 소포만 모니터링될 수 있지만 다른 날에는 수백만 개의 소포가 추적될 수 있습니다. 추적 시스템은 추적 ID, 고객 ID 및 주문 ID를 사용하여 검색할 수 있어야 합니다. 1개월 이후에 이루어진 주문은 더 이상 모니터링되지 않습니다.
가능한 가장 낮은 총 소유 비용으로 이를 수행하기 위해 솔루션 설계자는 무엇을 제안해야 합니까?
A. Amazon DynamoDB를 사용하여 DynamoDB 테이블에서 Auto Scaling 활성화. 1개월보다 오래된 항목에 대한 자동 삭제 스크립트를 예약합니다.
B. 글로벌 보조 인덱스와 함께 Amazon DynamoDB를 사용합니다. DynamoDB 테이블 및 글로벌 보조 인덱스에서 Auto Scaling을 활성화합니다. DynamoDB 테이블에서 TTL을 활성화합니다.
C. 프로비저닝된 IOPS(PIOPS)가 있는 Amazon RDS 온디맨드 인스턴스를 사용합니다. PIOPS가 초과될 때 알림을 보내도록 Amazon CloudWatch 경보를 활성화합니다. 필요에 따라 PIOPS를 늘리거나 줄입니다.
D. 프로비저닝된 IOPS(PIOPS)가 있는 Amazon RDS 예약 인스턴스를 사용합니다. Amazon CloudWatch 경보가 PIOPS 초과 시 알림을 보내도록 활성화합니다. 필요에 따라 PIOPS를 늘리거나 줄입니다.
B
문제의 키포인트는 '날마다 다른 소포의 추척량' 및 '1개월의 수명을 가진 주문 내역'입니다. 먼저 날마다 다른 리소스 사용량에 대해 DynamoDB의 Auto Scaling 그룹을 만들어 대응하도록 합니다. 이후 1개월의 수명 관리 주기 설정을 위해 TTL(Time to Live)를 설정해 주면 됩니다.
No64.
전 세계에 특파원이 있는 한 뉴스 조직은 AWS를 사용하여 방송 시스템을 호스팅 합니다. 기자는 방송 시스템에 라이브 피드를 제공합니다. 기자는 자신의 전화기에 설치된 소프트웨어(RTMP)를 사용하여 실시간 메시징 프로토콜을 통해 생방송을 전송합니다.
솔루션 설계자는 기자가 가능한 최고 품질의 스트림을 제공할 수 있는 시스템을 제공해야 합니다. 솔루션은 브로드캐스트 시스템에 대한 TCP 연결이 신속하게 이루어지도록 해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 접근 방식을 사용해야 합니까?
A. 아마존 클라우드프론트
B. AWS 글로벌 액셀러레이터
C. AWS 클라이언트 VPN
D. Amazon EC2 인스턴스 및 AWS 탄력적 IP 주소
B
문제를 잘 파악해야 합니다. 문제의 요지는 기자가 방송 시스템에 제공하는 라이브 피드를 RTMP를 통하여 전송하는데, 이를 최고 품질의 스트림으로 제공하도록 요구하는 문제입니다. 언 듯 봐서 '전 세계'란 단어에 클라우드프론트를 선택하시면 안 됩니다. 원래 CloudFront가 RTMP에 대한 지원을 하여서 정답이 될 수 있었으나 20년 12월 31일부로 지원이 중단되었습니다.
또한 Global Accelerator(GA)가 확실한 정답인 이유는 HTTP 및 TCP/UDP 프로토콜에 대해서 잘 사용됩니다. CloudFront는 HTTP 프로토콜에만 작동합니다. 문제는 HTTP를 통하는 것이 아닌 TCP를 통하기 때문에 GA가 적절합니다.
참고 : https://forums.aws.amazon.com/ann.jspa?annID=7356
No65.
한 기업이 Linux 기반 웹 서버 세트를 AWS로 이전하고 있습니다. 특정 콘텐츠의 경우 웹 서버는 공유 파일 저장소에 저장된 파일에 액세스해야 합니다. 마이그레이션 기한을 맞추기 위해 약간의 조정만 필요합니다.
이러한 기준이 충족되도록 솔루션 설계자는 어떤 조치를 취해야 합니까?
A. 웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 생성합니다.
B. Amazon S3 버킷을 오리진으로 사용하여 Amazon CloudFront 배포를 구성합니다.
C. Amazon Elastic File System(Amazon EFS) 볼륨을 생성하고 모든 웹 서버에 탑재합니다.
D. Amazon Elastic Block Store(Amazon EBS) 프로비저닝된 IOPS SSD(io1) 볼륨을 구성하고 모든 웹 서버에 탑재합니다.
C
EFS는 스토리지를 프로비저닝하거나 관리하지 않고도 파일 데이터를 공유할 수 있습니다. 또한 애플리케이션의 중단 없이도 페타바이트까지 온디맨드 형식으로 확장이 가능합니다. 여기서 핵심은 EFS는 Linux 용 공유 볼륨입니다.
댓글과 공감 클릭은 더 좋은 글을 위한 응원이 됩니다.
관련글
'Cloud > AWS SAA 모의시험' 카테고리의 다른 글
AWS SAA 모의 시험 5th #1 문제풀이 (5) | 2022.08.05 |
---|---|
AWS SAA 모의 시험 5th #2 (6) | 2022.08.05 |
AWS SAA 모의 시험 5th #1 (3) | 2022.08.05 |
AWS SAA 모의 시험 4th #4 문제풀이 (17) | 2022.08.05 |
AWS SAA 모의 시험 4th #3 문제풀이 (1) | 2022.08.05 |