NO.11 A company has many services running in its on-premises data center. The data center is
connected to AWS using AWS Direct Connect (DX) and an IPSec VPN. The service data is sensitive and
connectivity cannot traverse the internet. The company wants to expand into a new market segment
and begin offering its services to other companies that are using AWS.
Which solution will meet these requirements?
(A). Create a VPC Endpoint Service that accepts TCP traffic, host it behind a Network Load Balancer,
and make the service available over DX.
(B). Create a VPC Endpoint Service that accepts HTTP or HTTPS traffic, host it behind an Application
Load Balancer, and make the service available over DX.
(C). Attach an internet gateway to the VPC. and ensure that network access control and security
group rules allow the relevant inbound and outbound traffic.
(D). Attach a NAT gateway to the VPC. and ensure that network access control and security group
rules allow the relevant inbound and outbound traffic.

 

한 회사는 온프레미스 데이터 센터에서 많은 서비스를 실행하고 있습니다. 데이터 센터는 AWS 다이렉트 커넥트 (DX) IPsec VPN을 사용하여 AWS에 연결됩니다. 서비스 데이터는 민감하며 연결이 인터넷을 통과할 수 없습니다. 이 회사는 새로운 시장 부문으로 확장하고 AWS를 사용하는 다른 회사에 서비스를 제공하기 시작하기를 원합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. TCP 트래픽을 허용하는 VPC 엔드포인트 서비스를 생성하고, 이를 네트워크 로드 밸런서 뒤에서 호스팅하고, DX에서 서비스를 사용할 수 있도록 합니다.

B. HTTP 또는 HTTPS 트래픽을 허용하는 VPC 엔드포인트 서비스를 생성하고, 애플리케이션 로드 밸런서 뒤에서 호스팅하고, DX에서 서비스를 사용할 수 있도록 합니다.

C. 인터넷 게이트웨이를 VPC에 연결하고 네트워크 액세스 제어 및 보안 그룹 규칙이 관련 인바운드 및 아웃바운드 트래픽을 허용하는지 확인합니다.

D. VPC NAT 게이트웨이를 연결하고 네트워크 액세스 제어 및 보안 그룹 규칙이 관련 인바운드 및 아웃바운드 트래픽을 허용하는지 확인합니다.


Answer: A

참조 : https://docs.aws.amazon.com/vpc/latest/userguide/endpoint-service-overview.html

 

Share your services through AWS PrivateLink - Amazon Virtual Private Cloud

Share your services through AWS PrivateLink You can host your own AWS PrivateLink powered service, known as an endpoint service, and share it with other AWS customers. Overview The following diagram shows how you share your service that's hosted in AWS wit

docs.aws.amazon.com

 

NO.12 A company hosts a web application that tuns on a group of Amazon EC2 instances that ate
behind an Application Load Balancer (ALB) in a VPC. The company wants to analyze the network
payloads lo reverse-engineer a sophisticated attack o( the application.
Which approach should the company take to achieve this goal?
(A). Enable VPC Flow Logs. Store the flow logs in an Amazon S3 bucket for analysis.
(B). Enable Traffic Mirroring on the network interface of the EC2 instances. Send the mirrored traffic
lo a target for storage and analysis.
(C). Create an AWS WAF web ACL. and associate it with the ALB. Configure AWS WAF logging.
(D). Enable logging for the ALB. Store the logs in an Amazon S3 bucket for analysis.

 

한 회사에서 VPC의 애플리케이션 로드 밸런서 (ALB) 뒤에 있는 Amazon EC2 인스턴스 그룹에서 실행되는 웹 애플리케이션을 호스팅합니다. 이 회사는 네트워크 페이로드를 분석하여 애플리케이션의 정교한 공격을 리버스 엔지니어링하려고합니다.

이 목표를 달성하기 위해 회사는 어떤 접근 방식을 취해야 합니까?

A. VPC 흐름 로그를 활성화합니다. 분석을 위해 흐름 로그를 Amazon S3 버킷에 저장합니다.

B. EC2 인스턴스의 네트워크 인터페이스에서 트래픽 미러링을 활성화합니다. 미러링된 트래픽을 저장 및 분석을 위해 타겟으로 전송합니다.

C. AWS WAF ACL을 생성하고 이를 ALB와 연결합니다. AWS WAF 로깅을 구성합니다.

D. ALB에 대한 로깅을 활성화합니다. 분석을 위해 Amazon S3 버킷에 로그를 저장합니다.


Answer: B

 

NO.13 A company needs to create and manage multiple AWS accounts for a number ol departments
from a central location. The security team requires read-only access to all accounts from its own AWs
account. The company is using AWS Organizations and created an account tor the security team.
How should a solutions architect meet these requirements?
(A). Use the OrganizationAccountAccessRole 1AM role to create a new 1AM policy wilh read-only
access in each member account. Establish a trust relationship between the 1AM policy in each
member account and the security account. Ask the security team lo use the 1AM policy to gain
access.
(B). Use the OrganizationAccountAccessRole 1AM role to create a new 1AM role with read-only
access in each member account. Establish a trust relationship between the 1AM role in each member
account and the security account. Ask the security team lo use the 1AM role to gain access.
(C). Ask the security team to use AWS Security Token Service (AWS STS) to call the AssumeRole API
for the OrganizationAccountAccessRole 1AM role in the master account from the security account.
Use the generated temporary credentials to gain access.
(D). Ask the security team to use AWS Security Token Service (AWS STS) to call the AssumeRole API
for the OrganizationAccountAccessRole 1AM role in the member account from the security account.
Use the generated temporary credentials to gain access.

 

회사는 중앙 위치에서 여러 부서의 여러 AWS 계정을 생성하고 관리해야 합니다. 보안 팀에는 자체 AWS 계정에서 모든 계정에 대한 읽기 전용 액세스 권한이 필요합니다. 이 회사는 AWS Organizations를 사용하고 있으며 보안 팀의 계정을 생성했습니다.

솔루션 설계자는 이러한 요구 사항을 어떻게 충족해야 합니까?

A. 조직계정 액세스 역할 IAM 역할을 사용하여 각 구성원 계정에서 읽기 전용 액세스 권한이 있는 새 IAM 정책을 생성합니다. 각 멤버 계정의 IAM 정책과 보안 계정 간에 신뢰 관계를 설정합니다. 보안 팀에 IAM 정책을 사용하여 액세스 권한을 얻도록 요청합니다.

B. 조직계정 액세스 역할 IAM 역할을 사용하여 각 구성원 계정에서 읽기 전용 액세스 권한이 있는 새 IAM 역할을 생성합니다. 각 멤버 계정의 IAM 역할과 보안 계정 간에 신뢰 관계를 설정합니다.보안 팀에 IAM 역할을 사용하여 액세스 권한을 얻도록 요청합니다.

C. 보안 팀에 AWS 보안 토큰 서비스 (AWS STS) 를 사용하여 보안 계정에서 마스터 계정의 조직 계정 액세스 역할 IAM 역할에 대한 AssumeRole API를 호출하도록 요청합니다. 생성된 임시 자격 증명을 사용하여 액세스 권한을 얻습니다.

D. 보안 팀에 AWS 보안 토큰 서비스 (AWS STS) 를 사용하여 보안 계정에서 멤버 계정의 조직 계정 액세스 역할 IAM 역할에 대한 AssumeRole API를 호출하도록 요청합니다. 생성된 임시 자격 증명을 사용하여 액세스 권한을 얻습니다.


Answer: D

 

NO.14 A company has a new security policy. The policy requires the company to log any event that
retrieves data from Amazon S3 buckets. The company must save these audit logs in a dedicated S3
bucket. The company created the audit logs S3 bucket in an AWS account that is designated for
centralized logging. The S3 bucket has a bucket policy that allows write-only cross-account access A
solutions architect must ensure that all S3 object-level access is being logged for current S3 buckets
and future S3 buckets. Which solution will meet these requirements?
(A). Enable server access logging for all current S3 buckets. Use the audit logs S3 bucket as a
destination for audit logs
(B). Enable replication between all current S3 buckets and the audit logs S3 bucket Enable S3
Versioning in the audit logs S3 bucket
(C). Configure S3 Event Notifications for all current S3 buckets to invoke an AWS Lambda function
every time objects are accessed . Store Lambda logs in the audit logs S3 bucket.
(D). Enable AWS CloudTrail. and use the audit logs S3 bucket to store logs Enable data event logging
for S3 event sources, current S3 buckets, and future S3 buckets.

 

회사에 새로운 보안 정책이 있습니다. 이 정책은 회사가 Amazon S3 버킷에서 데이터를 검색하는 모든 이벤트를 기록하도록 요구합니다. 회사는 이러한 감사 로그를 전용 S3 버킷에 저장해야 합니다. 이 회사는 중앙 집중식 로깅을 위해 지정된 AWS 계정에 감사 로그 S3 버킷을 만들었습니다. S3 버킷에는 쓰기 전용 교차 계정 액세스를 허용하는 버킷 정책이 있습니다. 솔루션 설계자는 모든 S3 객체 수준 액세스가 현재 S3 버킷 및 향후 S3 버킷에 대해 기록되도록 해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. 모든 현재 S3 버킷에 대해 서버 액세스 로깅을 활성화합니다. 감사 로그 S3 버킷을 감사 로그의 대상으로 사용

B. 모든 현재 S3 버킷과 감사 로그 S3 버킷 간의 복제 활성화 감사 로그 S3 버킷에서 S3 버전 관리 활성화합니다.

C. 객체에 액세스할 때마다 AWS Lambda 함수를 호출하도록 현재 모든 S3 버킷에 대한 S3 이벤트 알림을 구성합니다. Lambda 로그를 감사 로그 S3 버킷에 저장합니다.

D. AWS CloudTrail을 활성화하고 감사 로그 S3 버킷을 사용하여 로그 저장 S3 이벤트 소스, 현재 S3 버킷 및 향후 S3 버킷에 대한 데이터 이벤트 로깅을 활성화합니다.


Answer: D

 

NO.15 A company has an organization that has many AWS accounts in AWS Organizations A
solutions architect must improve how the company manages common security group rules for the
AWS accounts in the organization.
The company has a common set of IP CIDR ranges in an allow list in each AWS account lo allow access
to and from the company's on-premises network Developers within each account are responsible for
adding new IP CIDR ranges to their security groups. The security team has its own AWS account.
Currently, the security team notifies the owners of the other AWS accounts when changes are made
to the allow list.
The solutions architect must design a solution that distributes the common set of CIDR ranges across
all accounts Which solution meets these requirements with the LEAST amount of operational
overhead.
(A). Set up an Amazon Simple Notification Service (Amazon SNS) topic in the security team's AWS
account Deploy an AWS Lambda function in each AWS account Configure the Lambda function to run
every time an SNS topic receives a message Configure the Lambda function to take an IP address as
input and add it to a list of security groups in the account Instruct the security team to distribute
changes by publishing messages to its SNS topic
(B). Create new customer-managed prefix lists in each AWS account within the organization Populate
the prefix lists in each account with all internal CIDR ranges Notify the owner of each AWS account to
allow the new customer-managed prefix list IDs in their accounts in their security groups Instruct the
security team to share updates with each AWS account owner.
(C). Create a new customer-managed prefix list in the security team's AWS account Populate the
customer-managed prefix list with all internal CIDR ranges. Share the customer-managed prefix list....
organization by using AWS Resource Access Manager Notify the owner of each AWS account to allow
the new customer-managed prefix list ID in their security groups
(D). ......

 

회사에는 AWS 조직에 많은 AWS 계정이 있는 조직이 있습니다. 솔루션스 아키텍트는 회사가 조직의 AWS 계정에 대한 일반적인 보안 그룹 규칙을 관리하는 방식을 개선해야 합니다. 이 회사는 각 AWS 계정의 허용 목록에 IP CIDR 범위의 공통 집합을 가지고 있으며, 회사의 온프레미스 네트워크에 대한 액세스를 허용합니다. 각 계정 내의 개발자는 보안 그룹에 새 IP CIDR 범위를 추가할 책임이 있습니다. 보안 팀에는 자체 AWS 계정이 있습니다. 현재 보안 팀은 허용 목록이 변경되면 다른 AWS 계정의 소유자에게 알립니다. 솔루션 설계자는 모든 계정에 공통 CIDR 범위 집합을 배포하는 솔루션을 설계해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

A. 보안 팀의 AWS 계정에서 Amazon Simple Notification Service (Amazon SNS) 주제를 설정합니다. AWS 계정에 AWS Lambda 함수를 배포합니다.SNS 주제가 메시지를 수신할 때마다 실행되도록 Lambda 함수를 구성합니다. IP 주소를 입력으로 받아 계정의 보안 그룹 목록에 추가하도록 Lambda 함수를 구성합니다. SNS 주제에 메시지를 게시하여 변경 사항을 배포하도록 보안 팀에 지시합니다.

B. 조직 내 각 AWS 계정에 새 고객 관리형 접두사 목록 생성 각 계정의 접두사 목록을 모든 내부 CIDR 범위로 채우기 보안 그룹의 계정에서 새 고객 관리형 접두사 목록 ID를 허용하도록 각 AWS 계정의 소유자에게 알림 보안에 지시팀에서 각 AWS 계정 소유자와 업데이트를 공유할 수 있습니다.

C. 보안 팀의 AWS 계정에 새 고객 관리형 접두사 목록을 생성합니다. 고객 관리형 접두사 목록을 모든 내부 CIDR 범위로 채웁니다.AWS 리소스 액세스 관리자를 사용하여 고객 관리형 접두사 목록... 조직 공유 각 AWS 계정의 소유자에게 보안 그룹에서 새 고객 관리형 접두사 목록 ID를 허용하도록 알립니다.

D. ….

Answer: A

 

NO.16 A new application is running on Amazon Elastic Container Service (Amazon ECS) with AWS
Fargate The application uses an Amazon Aurora MySQL database The application and the database
run m the same subnets of a VPC with distinct security groups that are configured.
The password (or the database is stored m AWS Secrets Manager and is passed to the application
through the D8_PASSWORD environment variable The hostname of the database is passed to the
application through the DB_HOST environment variable The application Is failing to access the
database.
Which combination of actions should a solutions architect take to resolve this error? (Select THREE )
(A). Ensure that the container has the environment variable with name "DB_PASSWORD" specified
with a
"ValueFrom" and the ARN of the secret
(B). Ensure that the container has the environment variable with name *D8_PASSWORD" specified
with a
"ValueFrom" and the secret name of the secret.
(C). Ensure that the Fargate service security group allows inbound network traffic from the Aurora
MySQL database on the MySQL TCP port 3306.
(D). Ensure that the Aurora MySQL database security group allows inbound network traffic from the
Fargate service on the MySQL TCP port 3306.
(E). Ensure that the container has the environment variable with name "D8_HOST" specified with the
hostname of a DB instance endpoint.
(F). Ensure that the container has the environment variable with name "DB_HOST" specified with the
hostname of the OB duster endpoint.

 

새로운 애플리케이션이 AWS Fargate를 통해 Amazon Elastic Container Service (Amazon ECS) 에서 실행 중입니다. 애플리케이션은 Amazon Aurora MySQL 데이터베이스를 사용합니다.애플리케이션과 데이터베이스는 서로 다른 보안 그룹이 구성된 VPC의 동일한 서브넷에서 실행됩니다. 데이터베이스의 암호는 AWS 비밀 관리자에 저장되며 DB_PASSWORD 환경 변수를 통해 애플리케이션으로 전달됩니다. 데이터베이스의 호스트 이름은 DB_HOST 환경 변수를 통해 응용 프로그램에 전달됩니다.응용 프로그램이 데이터베이스에 액세스하지 못했습니다.

이 오류를 해결하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까?(세 개 선택)

A. 컨테이너에 이름이 “DB_PASSWORD”인 환경 변수가 “valueFrom”으로 지정되어 있고 시크릿의 ARN이 있는지 확인합니다.

B. 컨테이너에 이름이 “DB_PASSWORD”인 환경 변수가 “valueFrom”으로 지정되어 있고 시크릿의 시크릿 이름이 지정되어 있는지 확인한다.

C. Fargate 서비스 보안 그룹이 MySQL TCP 포트 3306에 있는 Aurora MySQL 데이터베이스의 인바운드 네트워크 트래픽을 허용하는지 확인합니다.

D. Aurora MySQL 데이터베이스 보안 그룹이 MySQL TCP 포트 3306의 파게이트 서비스로부터의 인바운드 네트워크 트래픽을 허용하는지 확인합니다.

E. 컨테이너에 DB 인스턴스 엔드포인트의 호스트 이름과 함께 이름이 “DB_HOST”인 환경 변수가 지정되어 있는지 확인합니다.

F. 컨테이너에 DB 클러스터 엔드포인트의 호스트 이름과 함께 이름이 “DB_HOST”인 환경 변수가 지정되어 있는지 확인합니다.


Answer: A,D,F

 

NO.17 A development team has created a new flight tracker application that provides near-real-time
data to users. The application has a front end that consists of an Application Load Balancer (ALB) in
front of two large Amazon EC2 instances in a single Availability Zone. Data is stored in a single
Amazon RDS MySQL DB instance. An Amazon Route 53 DNS record points to the ALB.
Management wants the development team to improve the solution to achieve maximum reliability
with the least amount of operational overhead.
Which set of actions should the team take?
(A). Create RDS MySQL read replicas. Deploy the application to multiple AWS Regions. Use a Route 53
latency-based routing policy to route to the application.
(B). Configure the DB instance as Multi-AZ. Deploy the application to two additional EC2 instances in
different Availability Zones behind an ALB.
(C). Replace the DB instance with Amazon DynamoDB global tables. Deploy the application in
multiple AWS Regions. Use a Route 53 latency-based routing policy to route to the application.
(D). Replace the DB instance with Amazon Aurora with Aurora Replicas. Deploy the application to
mulliple smaller EC2 instances across multiple Availability Zones in an Auto Scaling group behind an
ALB.

 

개발팀은 사용자에게 실시간에 가까운 데이터를 제공하는 새로운 항공편 추적기 애플리케이션을 만들었습니다. 애플리케이션에는 단일 가용 영역에 있는 2개의 대형 Amazon EC2 인스턴스 앞에 ALB (애플리케이션 로드 밸런서) 로 구성된 프런트 엔드가 있습니다. 데이터는 단일 Amazon RDS MySQL DB 인스턴스에 저장됩니다. Amazon Route 53 DNS 레코드는 ALB를 가리킵니다. 경영진은 개발 팀이 최소한의 운영 오버헤드로 최대의 신뢰성을 달성하기 위해 솔루션을 개선하기를 원합니다.

팀은 어떤 조치를 취해야 하나요?

A. RDS MySQL 읽기 전용 복제본을 생성합니다애플리케이션을 여러 AWS 리전에 배포합니다. Route 53 지연 시간 기반 라우팅 정책을 사용하여 애플리케이션으로 라우팅합니다.

B. DB 인스턴스를 다중 AZ로 구성합니다. 애플리케이션을 ALB 뒤의 서로 다른 가용 영역에 있는 2개의 추가 EC2 인스턴스에 배포합니다.

C. DB 인스턴스를 Amazon DynamoDB 글로벌 테이블로 교체합니다. 여러 AWS 리전에 애플리케이션을 배포합니다. Route 53 지연 시간 기반 라우팅 정책을 사용하여 애플리케이션으로 라우팅합니다.

D. DB 인스턴스를 Amazon AuroraAurora 복제본으로 교체합니다. ALB 뒤에 있는 Auto Scaling 그룹의 여러 가용 영역에 걸쳐 소규모 EC2 인스턴스 여러 개에 애플리케이션을 배포합니다.


Answer: D

 

NO.18 A development team s Deploying new APIs as serverless applications within a company. The
team is currently using the AWS Maragement Console to provision Amazon API Gateway. AWS
Lambda, and Amazon DynamoDB resources A solutions architect has been tasked with automating
the future deployments of these serveriess APIs How can this be accomplished?
(A). Use AWS CloudFonTiation with a Lambda-backed custom resource to provision API Gateway Use
the MfS: :OynMoDB::Table and AWS::Lambda::Function resources to create the Amazon DynamoOB
table and Lambda functions Write a script to automata the deployment of the CloudFormation
template.
(B). Use the AWS Serverless Application Model to define the resources Upload a YAML template and
application files to the code repository Use AWS CodePipeline to conned to the code repository and
to create an action to build using AWS CodeBuild. Use the AWS CloudFormabon deployment provider
m CodePipeline to deploy the solution.
(C). Use AWS CloudFormation to define the serverless application. Implement versioning on the
Lambda functions and create aliases to point to the versions. When deploying, configure weights to
implement shifting traffic to the newest version, and gradually update the weights as traffic moves
over
(D). Commit the application code to the AWS CodeCommit code repository. Use AWS CodePipeline
and connect to the CodeCommit code repository Use AWS CodeBuild to build and deploy the Lambda
functions using AWS CodeDeptoy Specify the deployment preference type in CodeDeploy to
gradually shift traffic over to the new version.

 

개발 팀은 회사 내에서 API 서버리스 애플리케이션으로 배포합니다. 팀은 현재 AWS 관리 콘솔을 사용하여 Amazon API Gateway 프로비저닝하고 있습니다. AWS Lambda Amazon DynamoDB 리소스 솔루션 아키텍트는 이러한 서버리스 API 향후 배포를 자동화하는 임무를 맡았습니다. 이를 어떻게 수행할 있습니까?

A. Lambda 지원 사용자 지정 리소스와 함께 AWS CloudFormation 사용하여 API 게이트웨이를 프로비저닝합니다. AWS::DynamoDB::Table AWS::Lambda::Function 리소스를 사용하여 Amazon DynamoDB 테이블 Lambda 함수를 생성합니다. 스크립트를 작성하여 CloudFormation 템플릿의 배포를 자동화합니다.

B. AWS 서버리스 애플리케이션 모델을 사용하여 리소스를 정의합니다. YAML 템플릿 애플리케이션 파일을 코드 리포지토리에 업로드합니다. AWS CodePipeline 사용하여 코드 리포지토리에 연결하고 AWS CodeBuild 사용하여 빌드할 작업을 생성합니다.  CodePipeline AWS CloudFormation 배포 공급자를 사용하여 솔루션을 배포합니다.

C. AWS CloudFormation 사용하여 서버리스 애플리케이션을 정의합니다. Lambda 함수에 버전 관리를 구현하고 버전을 가리키는 별칭을 생성합니다. 배포 가중치를 구성하여 트래픽을 최신 버전으로 전환하고 트래픽이 이동함에 따라 가중치를 점진적으로 업데이트합니다.

D. 애플리케이션 코드를 AWS CodeCommit 코드 리포지토리에 커밋합니다. AWS CodePipeline 사용하여 코드커밋 코드 리포지토리에 연결합니다. AWS 코드빌드를 사용하여 AWS CodeDeploy 사용하여 Lambda 함수를 빌드하고 배포합니다.  CodeDeploy에서 배포 기본 설정 유형을 지정하여 트래픽을 버전으로 점진적으로 이동합니다.


Answer: B

 

NO.19 A company stores sales transaction data in Amazon DynamoDB tables. To detect anomalous
behaviors and respond quickly, all changes lo the items stored in the DynamoDB tables must be
logged within 30 minutes.
Which solution meets the requirements?
(A). Copy the DynamoDB tables into Apache Hive tables on Amazon EMR every hour and analyze
them (or anomalous behaviors. Send Amazon SNS notifications when anomalous behaviors are
detected.
(B). Use AWS CloudTrail to capture all the APIs that change the DynamoDB tables. Send SNS
notifications when anomalous behaviors are detected using CloudTrail event filtering.
(C). Use Amazon DynamoDB Streams to capture and send updates to AWS Lambda. Create a Lambda
function to output records lo Amazon Kinesis Data Streams. Analyze any anomalies with Amazon
Kinesis Data Analytics. Send SNS notifications when anomalous behaviors are detected.
(D). Use event patterns in Amazon CloudWatch Events to capture DynamoDB API call events with an
AWS Lambda (unction as a target to analyze behavior. Send SNS notifications when anomalous
behaviors are detected.

 

회사에서 판매 거래 데이터를 Amazon DynamoDB 테이블에 저장합니다. 비정상적인 동작을 감지하고 신속하게 대응하려면 DynamoDB 테이블에 저장된 모든 변경 사항을 30 이내에 기록해야 합니다.

요구 사항을 충족하는 솔루션은 무엇입니까?

A. DynamoDB 테이블을 Amazon EMR Apache 하이브 테이블에 매시간 복사하고 비정상적인 동작이 있는지 분석합니다. 비정상적인 동작이 감지되면 Amazon SNS 알림을 보냅니다.

B. AWS CloudTrail 사용하여 DynamoDB 테이블을 변경하는 모든 API 캡처합니다. CloudTrail 이벤트 필터링을 사용하여 비정상적인 동작이 감지되면 SNS 알림을 보냅니다.

C. Amazon DynamoDB 스트림을 사용하여 업데이트를 캡처하고 AWS Lambda 전송합니다. Lambda 함수를 생성하여 Amazon Kinesis 데이터 스트림으로 레코드를 출력합니다. Amazon Kinesis 데이터 애널리틱스로 이상 징후를 분석할 있습니다. 비정상적인 행동이 감지되면 SNS 알림을 보냅니다.

D. Amazon CloudWatch Events 이벤트 패턴을 사용하여 동작을 분석하기 위한 대상으로 AWS Lambda 함수를 사용하여 DynamoDB API 호출 이벤트를 캡처합니다. 비정상적인 행동이 감지되면 SNS 알림을 보냅니다.


Answer: C

참조 : https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/Streams.Lambda.html

 

DynamoDB Streams and AWS Lambda Triggers - Amazon DynamoDB

DynamoDB Streams and AWS Lambda Triggers Amazon DynamoDB is integrated with AWS Lambda so that you can create triggers—pieces of code that automatically respond to events in DynamoDB Streams. With triggers, you can build applications that react to data m

docs.aws.amazon.com

 

NO.20  A company has an on-premises Microsoft SQL Server database that writes a nightly 200 GB
export to a local drive. The company wants to move the backups to more robust cloud storage on
Amazon S3. The company has set up a 10 Gbps AWS Direct Connect connection between the onpremises data center and AWS. Which solution meets these requirements Most cost effectively?
(A). Create a new S3 bucket Deploy an AWS Storage Gateway file gateway within the VPC that is
connected to the Direct Connect connection. Create a new SMB file share. Write nightly database
exports to the new SMB file share.
(B). Create an Amzon FSx for Windows File Server Single-AZ file system within the VPC that is
connected to the Direct Connect connection. Create a new SMB file share. Write nightly database
exports to an SMB file share on the Amazon FSx file system Enable backups.
(C). Create an Amazon FSx for Windows File Server Multi-AZ system within the VPC that is connected
to the Direct Connect connection. Create a new SMB file share. Write nightly database exports to an
SMB file share on the Amazon FSx file system. Enable nightly backups.
(D). Create a new S3 buckets. Deploy an AWS Storage Gateway volume gateway within the VPC that
is connected to the Direct Connect connection. Create a new SMB file share. Write nightly database
exports to the new SMB file share on the volume gateway, and automate copies of this data to an S3
bucket.

 

한 회사에서 로컬 드라이브에 야간 200GB 내보내기를 기록하는 온-프레미스 Microsoft SQL Server 데이터베이스를 보유하고 있습니다. 이 회사는 백업을 Amazon S3의 보다 강력한 클라우드 스토리지로 이전하려고 합니다. 이 회사는 온프레미스 데이터 센터와 AWS 간에 10Gbps AWS 직접 연결 연결을 설정했습니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

A. S3 버킷을 생성합니다. 직접 연결 연결에 연결된 VPC 내에 AWS 스토리지 게이트웨이 파일 게이트웨이를 배포합니다. SMB 파일 공유를 만듭니다.야간 데이터베이스 내보내기를 새 SMB 파일 공유에 기록합니다.

B. 직접 연결 연결에 연결된 VPC 내에 Windows Amazon FSx 파일 서버 단일 AZ 파일 시스템을 생성합니다. SMB 파일 공유를 만듭니다.Amazon FSx 파일 시스템의 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다. 백업을 활성화합니다.

C. 직접 연결 연결에 연결된 VPC 내에 Windows Amazon FSx 파일 서버 다중 AZ 시스템을 생성합니다. SMB 파일 공유를 만듭니다.Amazon FSx 파일 시스템의 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다. 야간 백업을 활성화합니다.

D. S3 버킷을 생성합니다. 직접 연결 연결에 연결된 VPC 내에 AWS 스토리지 게이트웨이 볼륨 게이트웨이를 배포합니다. SMB 파일 공유를 만듭니다.볼륨 게이트웨이의 새 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성하고 이 데이터를 S3 버킷으로 자동 복사합니다.

 

Answer: A

728x90
반응형
  • 네이버 블러그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 카카오스토리 공유하기