VIVID_ASP-KR
|
|
Title of test:
![]() VIVID_ASP-KR Description: VIVID_ASP-KR |



| New Comment |
|---|
NO RECORDS |
|
솔루션 설계자는 회사에서 곧 출시할 새 애플리케이션의 데이터 저장 및 검색 아키텍처를 설계하고 있습니다. 이 애플리케이션은 전 세계 디바이스에서 분당 수백만 개의 작은 레코드를 수집하도록 설계되었습니다. 각 레코드는 크기가 4KB 미만이며 짧은 대기 시간으로 검색할 수 있는 내구성 있는 위치에 저장해야 합니다. 데이터는 일시적이며 회사는 데이터를 120일 동안만 저장해야 하며 그 이후에는 데이터를 삭제할 수 있습니다. 솔루션 설계자는 1년 동안 스토리지 요구 사항이 약 10-15TB가 될 것이라고 계산합니다. 가장 비용 효율적이고 설계 요구 사항을 충족하는 스토리지 전략은 무엇입니까?. A. 인덱싱된 검색이 가능하도록 각 수신 레코드를 Amazon S3 버킷에 단일 .csv 파일로 저장하도록 애플리케이션을 설계합니다. 120일보다 오래된 데이터를 삭제하도록 수명 주기 정책을 구성합니다. B. 각 수신 레코드를 규모에 맞게 구성된 Amazon DynamoDB 테이블에 저장하도록 애플리케이션을 설계합니다. 120일보다 오래된 레코드를 삭제하도록 DynamoDB TTL(Time to Live) 기능을 구성합니다. C. Amazon RDS MySQL 데이터베이스의 단일 테이블에 각 수신 레코드를 저장하도록 애플리케이션을 설계합니다. 쿼리를 실행하는 야간 cron 작업을 실행하여 120일보다 오래된 레코드를 삭제합니다. D. 수신 레코드를 Amazon S3 버킷에 쓰기 전에 일괄 처리하도록 애플리케이션을 설계합니다. 배치의 레코드 목록을 포함하도록 객체의 메타데이터를 업데이트하고 Amazon S3. 한 회사가 Amazon RDS for MySQL 데이터베이스가 있는 Application Load Balancer(ALB) 뒤에 있는 두 개의 Linux Amazon EC2 인스턴스에서 중요한 상태 저장 웹 애플리케이션을 실행하고 있습니다. 회사는 Amazon Route 53에서 애플리케이션에 대한 DNS 레코드를 호스팅합니다. 솔루션 설계자는 애플리케이션의 복원력을 개선하기 위한 솔루션을 추천해야 합니다. 솔루션은 다음 목표를 충족해야 합니다. * 애플리케이션 계층: 2분의 RPO. 30분의 RTO * 데이터베이스 계층: 5분의 RPO. 30분의 RTO 회사는 기존 애플리케이션 아키텍처를 크게 변경하기를 원하지 않습니다. 회사는 장애 조치 후 최적의 대기 시간을 보장해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Elastic Disaster Recovery를 사용하도록 EC2 인스턴스를 구성합니다. RDS DB 인스턴스에 대한 리전 간 읽기 전용 복제본을 생성합니다. 두 번째 AWS 리전에서 ALB를 생성합니다. AWS Global Accelerator 엔드포인트를 생성하고 엔드포인트를 ALB와 연결합니다. Global Accelerator 끝점을 가리키도록 DNS 레코드를 업데이트합니다. B. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 EBS 볼륨의 스냅샷을 생성하도록 EC2 인스턴스를 구성합니다. RDS 자동 백업을 구성합니다. 두 번째 AWS 리전에 대한 백업 복제를 구성합니다. 두 번째 리전에서 ALB를 생성 합니다. AWS Global Accelerator 엔드포인트를 생성하고 엔드포인트를 ALB와 연결합니다. Global Accelerator 끝점을 가리키도록 DNS 레코드를 업데이트합니다. C. AWS Backup에서 EC2 인스턴스 및 RDS DB 인스턴스에 대한 백업 계획을 생성합니다. 두 번째 AWS 리전에 대한 백업 복제를 구성합니다. 두 번째 리전에서 ALB를 생성합니다. ALB 앞에 Amazon CloudFront 배포를 구성합니다. CloudFront를 가리키도록 DNS 레코드를 업데이트합니다. D. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 EBS 볼륨의 스냅샷을 생성하도록 EC2 인스턴스를 구성합니다. RDS DB 인스턴스에 대한 리전 간 읽기 전용 복제본을 생성합니다. 두 번째 AWS 리전에서 ALB를 생성합니다. AWS Global Accelerator 엔드포인트를 생성하고 엔드포인트를 ALB와 연결합니다. 솔루션 설계자는 회사의 보안 설정 또는 AWS Lambda 함수를 감사하고 있습니다. Lambda 함수는 Amazon Aurora 데이터베이스에서 최신 변경 사항을 검색합니다. Lambda 함수와 데이터베이스는 동일한 VPC에서 실행됩니다. Lambda 환경 변수는 Lambda 함수에 데이터베이스 자격 증명을 제공합니다. Lambda 함수는 데이터를 집계하고 AWS KMS 관리형 암호화 키(SSE-KMS)를 사용한 서버 측 암호화용으로 구성된 Amazon S3 버킷에서 데이터를 사용할 수 있도록 합니다. 데이터는 인터넷을 통해 이동해서는 안 됩니다. 데이터베이스 자격 증명이 손상되면 회사는 손상의 영향을 최소화하는 솔루션이 필요합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?. A. Aurora DB 클러스터에서 IAM 데이터베이스 인증을 활성화합니다. 함수가 IAM 데이터베이스 인증을 사용하여 데이터베이스에 액세스할 수 있도록 Lambda 함수의 IAM 역할을 변경합니다. VPC에서 Amazon S3용 게이트웨이 VPC 엔드포인트 를 배포합니다. B. Aurora DB 클러스터에서 IAM 데이터베이스 인증을 활성화합니다. 함수가 IAM 데이터베이스 인증을 사용하여 데이터베이스에 액세스할 수 있도록 Lambda 함수의 IAM 역할을 변경합니다. 데이터 전송 중 Amazon S3 연결에 HTTPS를 적용합 니다. C. AWS Systems Manager Parameter Store에 데이터베이스 자격 증명을 저장합니다. Parameter Store의 자격 증명에 대한 암호 교체를 설정합니다. 함수가 Parameter Store에 액세스할 수 있도록 Lambda 함수의 IAM 역할을 변경합니다.Parameter Store에서 자격 증명을 검색하도록 Lambda 함수를 수정합니다. VPC에서 Amazon S3용 게이트웨이 VPC 엔드포인트를 배포합니다. D. AWS Secrets Manager에 데이터베이스 자격 증명을 저장합니다. Secrets Manager에서 자격 증명에 대한 암호 교체를 설정합니다. 함수가 Secrets Manager에 액세스할 수 있도록 Lambda 함수의 IAM 역할을 변경합니다. Secrets Manager에서 자격 증명을 검색하도록 Lambda 함수를 수정합니다. 데이터 전송 중 Amazon S3 연결에 HTTPS를 적용 합니다. 한 회사에서 수백 개의 AWS 계정으로부터 로그를 수신하고 분석하는 Amazon EC2에서 실행되는 중앙 집중식 로깅 서비스를 만들고 있습니다. AWS PrivateLink는 클라이언트 서비스와 로깅 서비스 간의 연결을 제공하는 데 사용되고 있습니다. 클라이언트가 있는 각 AWS 계정에서 로깅 서비스에 대한 인터페이스 엔드포인트가 생성되었으며 사용할 수 있습니다. NLB(Network Load Balancer)가 있는 EC2 인스턴스에서 실행되는 로깅 서비스는 서로 다른 서브넷에 배포됩니다. 클라이언트는 VPC 엔드포인트를 사용하여 로그를 제출할 수 없습니다. 솔루션 아키텍트가 이 문제를 해결하기 위해 취해야 하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. NLB 서브넷과의 통신을 허용하기 위해 NACL이 로깅 서비스 서브넷에 연결되어 있는지 확인하십시오. NACL이 NLB 서브넷에 연결되어 EC2 인스턴스에서 실행되는 로깅 서비스 서브넷과의 통신을 허용하는지 확인하십시오. B. NACL이 로깅 서비스 서브넷에 연결되어 인터페이스 엔드포인트 서브넷과의 통신을 허용하는지 확인합니다. NACL이 인터페이스 엔드포인트 서브넷에 연결되어 EC2 인스턴스에서 실행되는 로깅 서비스 서브넷과의 통신을 허용하는지 확인하십시오. C. EC2 인스턴스에서 실행 중인 로깅 서비스의 보안 그룹을 확인하여 NLB 서브넷에서 수신을 허용하는지 확인합니다. D. EC2 인스턴스에서 실행되는 로깅 서비스의 보안 그룹을 확인하여 클라이언트로부터의 수신을 허용하는지 확인하십시오. E. NLB의 보안 그룹을 확인하여 인터페이스 엔드포인트 서브넷에서 수신을 허용하는지 확인합니다. 애플리케이션이 us-east-1 리전에서 Amazon RDS for MySQL 다중 AZ DB 인스턴스를 사용하고 있습니다. 장애 조치 테스트 후 애플리케이션에서 데이터베이스에 대한 연결이 끊어져 연결을 다시 설정할 수 없습니다. 애플리케이션을 다시 시작한 후 애플리케이션이 연결을 다시 설정했습니다. 솔루션 설계자는 응용 프로그램이 다시 시작할 필요 없이 데이터베이스에 대한 연결을 다시 설정할 수 있도록 솔루션을 구현해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Aurora MySQL Serverless v1 DB 인스턴스를 생성합니다. RDS DB 인스턴스를 Aurora Serverless v1 DB 인스턴스로 마이그레이션합니다. Aurora 리더 엔드포인트를 가리키도록 애플리케이션의 연결 설정을 업데이트합니다. B. RDS 프록시를 생성합니다. 기존 RDS 엔드포인트를 대상으로 구성합니다. RDS 프록시 엔드포인트를 가리키도록 애플리케이션의 연결 설정을 업데이트합니다. C. 2노드 Amazon Aurora MySQL DB 클러스터를 생성합니다. RDS DB 인스턴스를 Aurora DB 클러스터로 마이그레이션합니다. RDS 프록시를 생성합니다. 기존 RDS 엔드포인트를 대상으로 구성합니다. RDS 프록시 엔드포인트를 가리키도록애플리케이션의 연결 설정을 업데이트합니다. D. Amazon S3 버킷을 생성합니다. AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스를 Amazon S3로 내보냅니다. S3 버킷을 데이터 저장소로 사용하도록 Amazon Athena를 구성합니다. 애플리케이션용 최신 드라이버를 설치합니다 ODBC(Open Database Connectivity) . Athena 엔드포인트를 가리키도록 애플리케이션의 연결 설정을 업데이트합니다. 팀은 회사 전체에 대한 행동 데이터를 수집하고 전달합니다. 이 회사는 퍼블릭 서브넷, 프라이빗 서브넷 및 인터넷 게이트웨이가 있는 다중 AZ VPC 환경을 실행합니다. 각 퍼블릭 서브넷에는 NAT 게이트웨이도 포함되어 있습니다. 대부분의 회사 애플리케이션은 Amazon Kinesis Data Streams에서 읽고 씁니다. 대부분의 워크로드는 프라이빗 서브넷에서 실행됩니다. 솔루션 설계자는 인프라를 검토해야 합니다. 솔루션 설계자는 비용을 절감하고 애플리케이션의 기능을 유지해야 합니다. 솔루션 설계자는 Cost Explorer를 사용하고 EC2-기타 범주의 비용이 지속적으로 높다는 것을 확인합니다. 추가 검토에 따르면 NatGateway-Bytes 요금이 EC2-기타 범주의 비용을 증가시키고 있습니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. VPC 흐름 로그를 활성화합니다. Amazon Athena를 사용하여 제거할 수 있는 트래픽에 대한 로그를 분석합니다. 보안 그룹이 높은 비용을 초래하는 트래픽을 차단하고 있는지 확인하십시오. B. Kinesis Data Streams용 인터페이스 VPC 엔드포인트를 VPC에 추가합니다. 애플리케이션에 인터페이스 VPC 엔드포인 트를 사용할 수 있는 올바른 IAM 권한이 있는지 확인하십시오. C. VPC 흐름 로그 및 Amazon Detective를 활성화합니다. Kinesis Data Streams와 관련되지 않은 트래픽에 대한 Detective 결과를 검토합니다. 해당 트래픽을 차단하도록 보안 그룹을 구성합니다. D. Kinesis Data Streams용 인터페이스 VPC 엔드포인트를 VPC에 추가합니다. VPC 엔드포인트 정책이 애플리케이션의 트래픽을 허용하는지 확인하십시오. 회사에는 사용자가 짧은 동영상을 업로드할 수 있는 웹 애플리케이션이 있습니다. 동영상은 Amazon EBS 볼륨에 저장되며 분류 를 위해 사용자 정의 인식 소프트웨어로 분석됩니다. 웹사이트에는 특정 달에 피크가 있는 가변 트래픽이 있는 정적 콘텐츠가 포함되어 있습니다. 아키텍처는 웹 애플리케이션용 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스와 Amazon SQS 대기열을 처리하기 위해 Auto Scaling 그룹에서 실행되는 EC2 인스턴스로 구성됩니다. 이 회사는 가능한 경우 AWS 관리형 서비스를 사용하여 운영 오버헤드를 줄이고 타사 소프트웨어에 대한 종속성을 제거하기 위해 애플리케이션을 재설계하려고 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 웹 애플리케이션에는 Amazon ECS 컨테이너를 사용하고 SQS 대기열을 처리하는 Auto Scaling 그룹에는 스팟 인스턴스를 사용하십시오. 사용자 지정 소프트웨어를 Amazon Rekognition으로 교체하여 비디오를 분류합니다. B. 업로드된 비디오를 Amazon EFS에 저장하고 파일 시스템을 웹 애플리케이션용 EC2 인스턴스에 탑재합니다. 비디오를 분류하기 위해 Amazon Rekognition API를 호출하는 AWS Lambda 함수로 SQS 대기열을 처리합니다. C. Amazon S3에서 웹 애플리케이션을 호스팅합니다. 업로드된 동영상을 Amazon S3에 저장합니다. S3 이벤트 알림을 사용하여 이벤트를 SQS 대기열에 게시합니다. 비디오를 분류하기 위해 Amazon Rekognition API를 호출하는 AWSLambda 함수로 SQS 대기열을 처리합니다. D. AWS Elastic Beanstalk를 사용하여 웹 애플리케이션용 Auto Scaling 그룹에서 EC2 인스턴스를 시작하고 작업자 환경 을 시작하여 SQS 대기열을 처리합니다. 사용자 지정 소프트웨어를 Amazon Rekognition으로 교체하여 비디오를 분류합 니다. 회사는 온프레미스 데이터 분석 플랫폼을 사용합니다. 이 시스템은 회사 데이터 센터의 12개 서버에 걸쳐 완전히 중복된 구성으로 가용성이 높습니다. 시스템은 사용자의 일회성 요청 외에도 매시간 및 매일 예약된 작업을 실행합니다. 예약된 작업은 실행을 완료하는 데 20분에서 2 시간이 소요될 수 있으며 엄격한 SLA가 있습니다. 예약된 작업은 시스템 사용량의 65%를 차지합니다. 사용자 작업은 일반적으로 5분 이내에 실행이 완료되며 SLA가 없습니다. 사용자 작업은 시스템 사용량의 35%를 차지합니다. 시스템 오류가 발생하는 동안 예약된 작업은 계속해서 SLA를 충족해야 합니다. 그러나 사용자 작업이 지연될 수 있습니다. 솔루션 설계자는 시스템을 Amazon EC2 인스턴스로 이동하고 소비 기반 모델을 채택하여 장기 약정 없이 비용을 절감해야 합니다. 솔루션은 고가용성을 유지해야 하며 SLA에 영향을 미치지 않아야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 선택한 AWS 리전에서 2개의 가용 영역에 걸쳐 12개의 인스턴스를 분할합니다. 용량 예약이 있는 온디맨드 인스턴스로 각 가용 영역에서 두 개의 인스턴스를 실행합니다. 각 가용 영역에서 4개의 인스턴스를 스팟 인스턴스로 실행합니다. B. 선택한 AWS 리전에서 3개의 가용 영역에 걸쳐 12개의 인스턴스를 분할합니다. 가용 영역 중 하나에서 4개의 인스턴스를 모두 용량 예약이 있는 온디맨드 인스턴스로 실행합니다. 나머지 인스턴스를 스팟 인스턴스로 실행합니다. C. 선택한 AWS 리전에서 3개의 가용 영역에 걸쳐 12개의 인스턴스를 분할합니다. Savings Plan이 있는 온디맨드 인스턴스로각 가용 영역에서 두 개의 인스턴스를 실행합니다. 각 가용 영역에서 두 개의 인스턴스를 스팟 인스턴스로 실행합니다. D. 선택한 AWS 리전에서 3개의 가용 영역에 걸쳐 12개의 인스턴스를 분할합니다. 각 가용 영역에서 용량 예약이 있는 온디맨드인스턴스로 3개의 인스턴스를 실행합니다. 각 가용 영역에서 하나의 인스턴스를 스팟 인스턴스로 실행합니다. 금융 회사는 현재 세대의 Linux EC2 인스턴스에서 비즈니스 크리티컬 애플리케이션을 실행하고 있습니다. 이 애플리케이션에는 과도한 I/O 작업을 수행하는 자체 관리형 MySQL 데이터베이스가 포함되어 있습니다. 응용 프로그램은 한 달 동안 적당한 양의 트래픽을 처리할 수 있도록 잘 작동합니다. 그러나 회사가 증가하는 수요를 충족하기 위해 인프라 내에서 Elastic Load Balancer 및 Auto Scaling을 사용하고 있음에도 불구하고 월말 보고로 인해 매달 마지막 3일 동안 속도가 느려집니다. 다음 작업 중 데이터베이스가 성능에 미치는 영향을 최소화하면서 월말 로드를 처리할 수 있는 작업은 무엇입니까?. A. 더 큰 인스턴스 유형을 사용하여 모든 Amazon EBS 볼륨을 GP2 볼륨으로 변경하는 사전 준비 Elastic Load Balancer. B. 데이터베이스 클러스터를 Amazon RDS로 일회성 마이그레이션을 수행하고 월말에 로드를 처리하기 위해 몇 가지 추가 읽기전용 복제본을 생성합니다. C. AWS Lambda와 함께 Amazon CloudWatch를 사용하여 특정 CloudWatch 메트릭을 기반으로 클러스터에서 Amazon EBS 볼륨의 유형, 크기 또는 IOPS를 변경합니다. D. 월말 이전에 스냅샷을 생성하고 이후에 되돌려 기존의 모든 Amazon EBS 볼륨을 사용 가능한 최대 스토리지 크기 및 초당 I/O가 있는 새 PIOPS 볼륨으로 교체합니다. 솔루션 설계자는 회사가 Amazon Workspaces에서 새 세션을 설정할 수 없는 문제를 조사하고 있습니다. 초기 분석 결과 문제에 사용자 프로필이 관련되어 있음이 나타납니다. Amazon Workspaces 환경은 Amazon FSx for Windows File Server를 프로필 공유 스토리지로 사용하도록 구성됩니다. FSx for Windows File Server 파일 시스템은 10TB 스토리지로 구성됩니다. 솔루션 설계자는 파일 시스템이 최대 용량에 도달했음을 발견합니다. 솔루션 설계자는 사용자가 다시 액세스할 수 있는지 확인해야합니다. 솔루션은 또한 문제가 다시 발생하지 않도록 방지해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 이전 사용자 프로필을 제거하여 공간을 만듭니다. 사용자 프로필을 Amazon FSx for Lustre 파일 시스템으로 마이그레이션 합니다. B. update-file-system 명령을 사용하여 용량을 늘립니다. 여유 공간을 모니터링하는 Amazon CloudWatch 지표를 구현합니다. Amazon EventBridge를 사용하여 AWS Lambda 함수를 호출하여 필요에 따라 용량을 늘립니다. C. Amazon CloudWatch에서 FreeStorageCapacity 지표를 사용하여 파일 시스템을 모니터링합니다. AWS Step Functions를 사용하여 필요에 따라 용량을 늘립니다. D. 이전 사용자 프로필을 제거하여 공간을 만듭니다. Windows 파일 서버 파일 시스템용 추가 FSx를 만듭니다. 사용자의 50%가 새 파일 시스템을 사용하도록 사용자 프로필 리디렉션을 업데이트합니다. 회사에서 직원이 VPN을 사용하여 연결하면 집에서 원격으로 작업할 수 있도록 하는 새로운 정책을 도입했습니다. 이 회사는 여러AWS 계정에서 VPC로 내부 애플리케이션을 호스팅하고 있습니다. 현재 애플리케이션은 AWS Site-to-Site VPN 연결을 통해 회사의 온프레미스 사무실 네트워크에서 액세스할 수 있습니다. 회사의 기본 AWS 계정에 있는 VPC에는 다른 AWS 계정에 있는 VPC와 피어링 연결이 설정되어 있습니다. 솔루션 설계자는 직원이 재택 근무 중에 사용할 수 있도록 확장 가능한 AWS Client VPN 솔루션을 설계해야 합니다. 이러한 요구 사항을 충족하는 가장 비용 효율적인 솔루션은 무엇입니까?. A. 각 AWS 계정에서 클라이언트 VPN 엔드포인트를 생성합니다. 내부 애플리케이션에 대한 액세스를 허용하는 필수 라우팅을 구성합니다. B. 기본 AWS 계정에서 클라이언트 VPN 엔드포인트를 생성합니다. 내부 애플리케이션에 대한 액세스를 허용하는 필수 라우팅을 구성합니다. C. 기본 AWS 계정에서 클라이언트 VPN 엔드포인트를 생성합니다. 각 AWS 계정에 연결된 전송 게이트웨이를 프로비저닝합니다. 내부 애플리케이션에 대한 액세스를 허용하는 필수 라우팅을 구성합니다. D. 기본 AWS 계정에서 클라이언트 VPN 엔드포인트를 생성합니다. 클라이언트 VPN 엔드포인트와 AWS Site-to-Site VPN 간의 연결을 설정합니다. 엔터프라이즈 회사는 개발자가 AWS Marketplace를 통해 타사 소프트웨어를 구매할 수 있도록 허용하려고 합니다. 이 회사는 모든 기능이 활성화된 AWS Organizations 계정 구조를 사용하고 조달 관리자가 사용할 각 조직 단위(OU)에 공유 서비스 계정을 가지고 있습니다. 조달 팀의 정책에 따르면 개발자는 승인된 목록에서만 타사 소프트웨어를 얻을 수 있어야 하며 AWS Marketplace에서 Private Marketplace를 사용하여 이 요구 사항을 충족할 수 있어야 합니다. 조달 팀은 Private Marketplace의 관리가 조달 관리자가 맡을 수 있는 조달-관리자-역할이라는 역할로 제한되기를 원합니다. 회사의 다른 IAM 사용자, 그룹, 역할 및 계정 관리자는 Private Marketplace 관리 액세스가 거부되어야 합니다. 이러한 요구 사항을 충족하는 아키텍처를 설계하는 가장 효율적인 방법은 무엇입니까?. A. 조직의 모든 AWS 계정에서 procurement-manager-role이라는 IAM 역할을 생성합니다. 역할에 PowerUserAccess관리 정책을 추가합니다. 모든 AWS 계정의 모든 IAM 사용자 및 역할에 인라인 정책을 적용하여AWSPrivateMarketplaceAdminFullAccess 관리형 정책에 대한 권한을 거부합니다. B. 조직의 모든 AWS 계정에서 procurement-manager-role이라는 IAM 역할을 생성합니다. 역할에 AdministratorAccess 관리 정책을 추가합니다. AWSPrivateMarketplaceAdminFullAccess 관리형 정책으로 권한 경계를 정의하고 이를 모든 개발자 역할에 연결합니다. C. 조직의 모든 공유 서비스 계정에서 procurement-manager-role이라는 IAM 역할을 만듭니다. 역할에 AWSPrivateMarketplaceAdminFullAccess 관리형 정책을 추가합니다. procurement-manager-role이라는 역할을 제외한 모든 사람에게 Private Marketplace를 관리할 수 있는 권한을 거부하는 조직 루트 수준 SCP를 만듭니다. 다른 조직 루트 수준 SCP를 생성하여 조직의 모든 사람에게 procurement-manager-role이라는 IAM 역할을 생성할 수 있는 권한을 거부합니다. D. 개발자가 사용할 모든 AWS 계정에서 procurement-manager-role이라는 IAM 역할을 생성합니다. 역할에 AWSPrivateMarketplaceAdminFullAccess 관리형 정책을 추가합니다. 조직에서 SCP를 생성하여 procurement-manager-role이라는 역할을 제외한 모든 사람에게 Private Marketplace를 관리할 수 있는 권한을 거부합니다. 조직의 모든 공유 서비스 계정에 SCP를 적용합니다. 회사는 사용자 지정 네트워크 분석 소프트웨어 패키지를 실행하여 트래픽이 VPC를 나가고 들어올 때 트래픽을 검사하려고 합니다. 이 회사는 Auto Scaling 그룹의 3개 Amazon EC2 인스턴스에 AWS CloudFormation을 사용하여 솔루션을 배포했습니다. 트래픽을 EC2 인스턴스로 보내기 위해 모든 네트워크 라우팅이 설정되었습니다. 분석 소프트웨어가 작동을 멈출 때마다 Auto Scaling 그룹이 인스턴스를 교체합니다. 인스턴스 교체가 발생할 때 네트워크 경로가 업데이트되지 않습니다. 이 문제를 해결하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. Auto Scaling 그룹이 실패한 인스턴스를 교체하도록 하는 EC2 상태 확인 지표를 기반으로 경보를 생성합니다. B. CloudFormation 템플릿을 업데이트하여 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치합니다. 애플리케이션 에 대한 프로세스 지표를 보내도록 CloudWatch 에이전트를 구성합니다. C. CloudFormation 템플릿을 업데이트하여 EC2 인스턴스에 AWS Systems Manager Agent를 설치합니다. 애플리케이 션에 대한 프로세스 메트릭을 보내도록 Systems Manager Agent를 구성합니다. D. 실패 시나리오에 대해 Amazon CloudWatch에서 사용자 지정 지표에 대한 경보를 생성합니다. Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시하도록 경보를 구성합니다. E. 서비스에서 인스턴스를 제거하기 위해 Amazon Simple Notification Service(Amazon SNS) 메시지에 응답하는 AWS Lambda 함수를 생성합니다. 교체 인스턴스를 가리키도록 네트워크 경로를 업데이트합니다. F. CloudFormation 템플릿에서 대체 인스턴스가 시작될 때 네트워크 경로를 업데이트하는 조건을 작성하십시오. 한 회사에 데이터 계층이 단일 AWS 리전에 배포된 중요한 애플리케이션이 있습니다. 데이터 계층은 Amazon DynamoDB 테이블과 클러스터를 사용합니다 Amazon Aurora MySQL DB . 현재 Aurora MySQL 엔진 버전은 글로벌 데이터베이스를 지원합니다. 애플리케이션 계층은 이미 두 지역에 배포되었습니다. 회사 정책에 따르면 중요한 애플리케이션에는 애플리케이션 계층 구성 요소와 데이터 계층 구성 요소가 두 지역에 걸쳐 배포되어야 합니다. RTO 및 RPO는 각각 몇 분을 넘지 않아야 합니다. 솔루션 설계자는 데이터 계층이 회사 정책을 준수하도록 하는 솔루션을 권장해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. Aurora MySQL DB 클러스터에 다른 리전 추가. B. Aurora MySQL DB 클러스터의 각 테이블에 다른 리전 추가. C. DynamoDB 테이블 및 Aurora MySQL DB 클러스터에 대한 예약된 교차 리전 백업 설정. D. 구성에 다른 리전을 추가하여 기존 DynamoDB 테이블을 전역 테이블로 변환. E. Amazon Route 53 Application Recovery Controller를 사용하여 보조 리전으로 데이터베이스 백업 및 복구 자동화. 한 회사에서 AWS CloudFormation 스택에 배포된 AWS Lambda를 기반으로 애플리케이션을 구축했습니다. 웹 애플리케이션의 마지막 프로덕션 릴리스에서 몇 분 동안 중단되는 문제가 발생했습니다. 솔루션 설계자는 카나리아 릴리스를 지원하도록 배포 프로세스를 조정해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 새로 배포된 Lambda 함수 버전마다 별칭을 만듭니다. 라우팅 구성 파라미터와 함께 AWS CLI update-alias 명령을 사용 하여 로드를 분산합니다. B. 애플리케이션을 새 CloudFormation 스택에 배포합니다. Amazon Route 53 가중 라우팅 정책을 사용하여 로드를 분산합 니다. C. 새로 배포된 모든 Lambda 함수에 대한 버전을 생성합니다. 라우팅 구성 파라미터와 함께 AWS CLI update-function- configuration 명령을 사용하여 로드를 분산합니다. D. AWS CodeDeploy를 구성하고 배포 구성에서 CodeDeployDefault.OneAtATime을 사용하여 로드를 분산합니다. 한 회사가 미술품 경매 서비스를 제공하고 북미와 유럽 전역에 사용자를 보유하고 있습니다. 회사는 us-east-1 리전의 Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. 작가들은 자신의 작품 사진을 큰 사이즈로 업로드한다. 고해상도 이미지 파일을 휴대폰에서 us-east-1 리전에서 생성된 중앙 집중식 Amazon S3 버킷으로 전송합니다. 유럽 사용자들은 이미지 업로드 속도가 느리다고 보고합니다. 솔루션 설계자는 이미지 업로드 프로세스의 성능을 어떻게 향상시킬 수 있습니까?. A. S3 멀티파트 업로드를 사용하도록 애플리케이션을 재배포합니다. B. Amazon CloudFront 배포를 생성하고 애플리케이션을 사용자 지정 오리진으로 지정합니다. C. S3 Transfer Acceleration을 사용하도록 버킷을 구성합니다. D. EC2 인스턴스에 대한 Auto Scaling 그룹을 생성하고 조정 정책을 생성합니다. 소매 회사는 비즈니스 파트너인 다른 회사에 일련의 데이터 파일을 제공해야 합니다. 이러한 파일은 소매 회사에 속한 계정 A의 Amazon S3 버킷에 저장됩니다. 비즈니스 파트너 회사는 IAM 사용자 중 하나인 User_DataProcessor가 자체 AWS 계정 (계정 B)에서 파일에 액세스하기를 원합니다. User_DataProcessor가 S3 버킷에 성공적으로 액세스할 수 있도록 회사에서 수행해야 하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. 계정 A의 S3 버킷에 대한 교차 출처 리소스 공유(CORS) 기능을 켭니다. B. 계정 A에서 S3 버킷 정책을 다음과 같이 설정합니다. C. 계정 A에서 S3 버킷 정책을 다음과 같이 설정합니다. D.계정 B에서 User_DataProcessor의 권한을 다음과 같이 설정합니다. E. 계정 B에서 User_DataProcessor의 권한을 다음과 같이 설정합니다. 회사는 Amazon S3 버킷에 수백만 개의 객체를 가지고 있습니다 . 객체는 S3 Standard 스토리지 클래스에 있습니다. 모든 S3 객체는 자주 액세스됩니다. 개체에 액세스하는 사용자 및 응용 프로그램의 수가 빠르게 증가하고 있습니다. 객체는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화로 암호화됩니다. 솔루션 아키텍트는 회사의 월별 AWS 송장을 검토하고 Amazon S3의 많은 요청으로 인해 AWS KMS 비용이 증가하고 있음을 확인합니다. 솔루션 설계자는 애플리케이션에 대한 최소한의 변경으로 비용을 최적화해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 고객 제공 키(SSE-C)를 암호화 유형으로 사용하여 서버 측 암호화가 있는 새 S3 버킷을 생성합니다. 기존 객체를 새 S3 버킷에 복사합니다. SSE-C를 지정합니다. B. Amazon S3 관리 키(SSE-S3)를 암호화 유형으로 사용하여 서버 측 암호화가 있는 새 S3 버킷을 생성합니다. S3 배치 작 업을 사용하여 기존 객체를 새 S3 버킷에 복사합니다. SSE-S3를 지정합니다. C. AWS CloudHSM을 사용하여 암호화 키를 저장합니다. 새 S3 버킷을 생성합니다. S3 배치 작업을 사용하여 기존 객체를 새 S3 버킷에 복사합니다. CloudHSM의 키를 사용하여 객체를 암호화합니다. D. S3 버킷에 S3 Intelligent-Tiering 스토리지 클래스를 사용합니다. S3 Intelligent-Tiering 아카이브 구성을 생성하여 90 일 동안 액세스되지 않은 객체를 S3 Glacier Deep Archive로 전환합니다. 회사에는 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 솔루션 설계자는 애플리케이션이 Amazon Aurora DB 클러스터에 액세스해야 하는 AWS 리전에서 VPC 인프라를 설계하고 있습니다. EC2 인스턴스는 모두 동일한 보안 그룹과 연결됩니다. DB 클러스터는 자체 보안 그룹과 연결됩니다. 솔루션 설계자는 보안 그룹에 규칙을 추가하여 애플리케이션에 DB 클러스터에 대한 최소 권한 액세스를 제공해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. EC2 인스턴스의 보안 그룹에 인바운드 규칙을 추가합니다. 기본 Aurora 포트를 통해 DB 클러스터의 보안 그룹을 소스로 지정합니다. B. EC2 인스턴스의 보안 그룹에 아웃바운드 규칙을 추가합니다. DB 클러스터의 보안 그룹을 기본 Aurora 포트를 통한 대상으로 지정합니다. C. DB 클러스터의 보안 그룹에 인바운드 규칙을 추가합니다. 기본 Aurora 포트를 통해 EC2 인스턴스의 보안 그룹을 소스로 지정합니다. D. DB 클러스터의 보안 그룹에 아웃바운드 규칙을 추가합니다. EC2 인스턴스의 보안 그룹을 기본 Aurora 포트를 통한 대상으로 지정합니다. E. DB 클러스터의 보안 그룹에 아웃바운드 규칙을 추가합니다. 임시 포트를 통한 대상으로 EC2 인스턴스의 보안 그룹을 지정합니다. 회사는 온프레미스 데이터 센터에서 애플리케이션을 실행합니다. 이 애플리케이션은 사용자에게 미디어 파일을 업로드할 수 있는 기능을 제공합니다. 파일은 파일 서버에 유지됩니다. 웹 애플리케이션에는 많은 사용자가 있습니다. 응용 프로그램 서버가 과도하게 사용되어 때때로 데이터 업로드가 실패합니다. 회사는 파일 서버에 새 스토리지를 자주 추가합니다. 회사는 애플리케이션을 AWS 로 마이그레이션하여 이러한 문제를 해결하려고 합니다. 미국과 캐나다 전역의 사용자가 애플리케이션에 액세스합니다. 인증된 사용자만 애플리케이션에 액세스하여 파일을 업로드할 수 있어야 합니다. 회사는 애플리케이션을 리팩터링하는 솔루션을 고려할 것이며 회사는 애플리케이션 개발을 가속화해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Application Migration Service를 사용하여 애플리케이션 서버를 Amazon EC2 인스턴스로 마이그레이션합니다. EC2 인스턴스에 대한 Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하여 요청을 분산합니다. Amazon S3를 사용하여 파일을 유지하도록 애플리케이션을 수정합니다. Amazon Cognito를 사용하여 사용자를 인증합니 다. B. AWS Application Migration Service를 사용하여 애플리케이션 서버를 Amazon EC2 인스턴스로 마이그레이션합니다. EC2 인스턴스에 대한 Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하여 요청을 분산합니다. 사용자가 애플리케이션에 로그인할 수 있도록 AWS IAM Identity Center(AWS Single Sign-On)를 설정합니다.Amazon S3를 사용하여 파일을 유지하도록 애플리케이션을 수정합니다. C. 미디어 파일 업로드를 위한 정적 웹사이트를 만듭니다. 정적 자산을 Amazon S3에 저장합니다. AWS AppSync를 사용하 여 API를 생성합니다. AWS Lambda 확인자를 사용하여 미디어 파일을 Amazon S3에 업로드합니다. Amazon Cognito를 사용하여 사용자를 인증합니다. D. AWS Amplify를 사용하여 미디어 파일 업로드를 위한 정적 웹사이트를 생성합니다. Amplify Hosting을 사용하여 Amazon CloudFront를 통해 웹 사이트를 제공합니다. Amazon S3를 사용하여 업로드된 미디어 파일을 저장합니다. Amazon Cognito를 사용하여 사용자를 인증합니다. 회사에서 각 엔지니어링 팀을 위해 AWS Organizations에 OU를 생성했습니다. 각 OU는 여러 AWS 계정을 소유합니다. 조직에는 수백 개의 AWS 계정이 있습니다. 솔루션 설계자는 각 OU가 AWS 계정 전체의 사용 비용 내역을 볼 수 있도록 솔루션을 설계해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. AWS Resource Access Manager를 사용하여 각 OU에 대한 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이Amazon QuickSight 대시보드를 통해 CUR을 시각화하도록 허용합니다. B. AWS Organizations 마스터 계정에서 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이 Amazon QuickSight 대시보드를 통해 CUR을 시각화하도록 허용합니다. C. 각 AWS Organizations 멤버 계정에서 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이 Amazon QuickSight 대시보드를 통해 CUR을 시각화하도록 허용합니다. D. AWS Systems Manager를 사용하여 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이 Systems Manager OpsCenter 대시보드를 통해 CUR을 시각화할 수 있습니다. 솔루션 설계자는 회사의 Amazon EC2 인스턴스와 Amazon Elastic Block Store(Amazon EBS) 볼륨을 분석하여 회사가 리소스를 효율적으로 사용하고 있는지 확인해야 합니다. 이 회사는 능동/수동 구성으로 배포되는 데이터베이스 클러스터를 호스팅하기 위해 여러 개의 대용량 고용량 EC2 인스턴스를 실행하고 있습니다. 이러한 EC2 인스턴스의 활용은 데이터베이스를 사용하는 애플리케이에 따라 다르며 회사는 패턴을 식별하지 않았습니다. 솔루션 설계자는 환경을 분석하고 결과에 따라 조치를 취해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. AWS Systems Manager OpsCenter를 사용하여 대시보드를 생성합니다. EC2 인스턴스 및 해당 EBS 볼륨과 연결된Amazon CloudWatch 지표에 대한 시각화를 구성합니다. 대시보드를 주기적으로 검토하고 사용 패턴을 식별합니다. 지표의 피크를 기준으로 EC2 인스턴스의 크기를 조정합니다. B. EC2 인스턴스 및 해당 EBS 볼륨에 대한 Amazon CloudWatch 세부 모니터링을 켭니다. 메트릭을 기반으로 하는 대시보 드를 만들고 검토합니다 사용 패턴을 식별합니다. 지표의 피크를 기준으로 EC2 인스턴스의 크기를 조정합니다. C. 각 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치합니다. AWS Compute Optimizer를 켜고 최소 12시간 동안 실행합니다. Compute Optimizer의 권장 사항을 검토하고 지시에 따라 EC2 인스턴스의 크기를 조정합니다. D. AWS Enterprise Support 플랜에 가입합니다. AWS Trusted Advisor를 켭니다. 12시간을 기다립니다. Trusted Advisor의 권장 사항을 검토하고 지시에 따라 EC2 인스턴스의 크기를 조정합니다. 회사에서 타사 SaaS(Software-as-a-Service) 애플리케이션을 사용하려고 합니다. 타사 SaaS 애플리케이션은 여러 API 호출을 통해 사용됩니다. 타사 SaaS 애플리케이션도 VPC 내부의 AWS에서 실행됩니다. 회사는 VPC 내부에서 타사 SaaS 애플리케이션을 사용합니다. 회사에는 인터넷을 통과하지 않는 개인 연결 사용을 의무화하는 내부 보안 정책이 있습니다. 회사 VPC에서 실행되는 리소스는 회사 VPC 외부에서 액세스할 수 없습니다. 모든 권한은 최소 권한 원칙을 준수해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. AWS PrivateLink 인터페이스 VPC 엔드포인트를 생성합니다. 타사 SaaS 애플리케이션이 제공하는 엔드포인트 서비스에 이 엔드포인트를 연결합니다. 엔드포인트에 대한 액세스를 제한하는 보안 그룹을 생성합니다. 보안 그룹을 엔드포인트와 연결합니다. B. 타사 SaaS 애플리케이션과 회사 VPC 간에 AWS Site-to-Site VPN 연결을 생성합니다. VPN 터널을 통한 액세스를 제한 하도록 네트워크 ACL을 구성합니다. C. 피어링 연결에 필요한 경로를 추가하여 타사 SaaS 애플리케이션과 회사 VPUpdate 경로 테이블 간에 VPC 피어링 연결을생성합니다. D. AWS PrivateLink 엔드포인트 서비스를 생성합니다. 타사 SaaS 공급자에게 이 엔드포인트 서비스에 대한 인터페이스 VPC 엔드포인트를 생성하도록 요청하십시오. 타사 SaaS 공급자의 특정 계정에 끝점 서비스에 대한 권한을 부여합니다. 회사는 Amazon RDS에서 Microsoft SQL Server DB 인스턴스에 액세스해야 하는 AWS Lambda 함수를 사용하여 서버리스 아키텍처를 구현하고 있습니다. 이 회사는 데이터베이스 시스템의 복제본을 포함하여 개발 및 생산을 위한 별도의 환경을 가지고 있습니다. 회사의 개발자는 개발 데이터베이스의 자격 증명에 액세스할 수 있습니다. 그러나 프로덕션 데이터베이스의 자격 증명은 IT 보안 팀 의 IAM 사용자 그룹 구성원만 액세스할 수 있는 키로 암호화해야 합니다. 이 키는 정기적으로 순환되어야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 프로덕션 환경에서 무엇을 해야 합니까?. A. AWS Key Management Service(AWS KMS) 고객 관리형 키로 암호화된 SecureString 파라미터를 사용하여 AWS Systems Manager Parameter Store에 데이터베이스 자격 증명을 저장합니다. SecureString 파라미터에 대한 액세스를 제공하기 위해 각 Lambda 함수에 역할을 연결합니다. IT 보안 팀만 매개 변수와 키에 액세스할 수 있도록 SecureString 매개 변수 및 고객 관리형 키에 대한 액세스를 제한합니다. B. AWS Key Management Service(AWS KMS) 기본 Lambda 키를 사용하여 데이터베이스 자격 증명을 암호화합니다. 각 Lambda 함수의 환경 변수에 자격 증명을 저장합니다. Lambda 코드의 환경 변수에서 자격 증명을 로드합니다. IT 보안팀만 키에 액세스할 수 있도록 KMS 키에 대한 액세스를 제한합니다. C. 각 Lambda 함수의 환경 변수에 데이터베이스 자격 증명을 저장합니다. AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 환경 변수를 암호화합니다. IT 보안 팀만 키에 액세스할 수 있도록 고객 관리형 키에 대한 액세스를제한합니다. D. 데이터베이스 자격 증명을 AWS Secrets Manager에 AWS Key Management Service(AWS KMS) 고객 관리형 키 와 연결된 암호로 저장합니다. 비밀에 대한 액세스를 제공하기 위해 각 Lambda 함수에 역할을 연결합니다. IT 보안 팀만 키 에 액세스할 수 있도록 고객 관리형 키에 대한 액세스를 제한합니다. 한 회사가 AWS에서 SaaS(Software-as-a-Service) 솔루션을 구축하고 있습니다. 이 회사는 여러 AWS 리전과 동일한 프로덕션 계정에 AWS Lambda 통합과 함께 Amazon API Gateway REST API를 배포했습니다. 이 회사는 고객이 초당 특정 수의 API 호출을 할 수 있는 용량에 대해 비용을 지불할 수 있는 계층형 가격을 제공합니다. 프리미엄 계층은 초당 최대 3,000개의 호출을 제공하며 고객은 고유한 API 키로 식별됩니다. 다양한 리전의 여러 프리미엄 계층 고객은 사용량이 가장 많은 시간 동안 여러 API 메서드에서 429개의 너무 많은 요청 오류 응답을 받았다고 보고합니다. 로그는 Lambda 함수가 호출되지 않았음을 나타냅니다. 이러한 고객에게 표시되는 오류 메시지의 원인은 무엇입니까?. A. Lambda 함수가 동시성 제한에 도달했습니다. B. Lambda는 동시성을 위한 리전 제한 기능을 합니다. C. API 게이트웨이 계정의 초당 호출 한도에 도달했습니다. D. 회사는 초당 호출에 대한 API 게이트웨이 기본 메서드별 제한에 도달했습니다. 회사의 서버리스 애플리케이션에 대한 외부 감사에서 너무 많은 권한을 부여하는 IAM 정책이 드러났습니다. 이러한 정책은 회사의 AWS Lambda 실행 역할에 연결됩니다. 수백 개의 회사 Lambda 함수에는 Amazon S3 버킷 및 Amazon DynamoDB 테이블에 대한 전체 액세스와 같은 광범위한 액세스 권한이 있습니다. 회사는 각 기능이 작업을 완료하는 데 필요한 최소한의 권한만 갖기를 원합니다. 솔루션 설계자는 각 Lambda 함수에 필요한 권한을 결정해야 합니다. 솔루션 설계자는 최소한의 노력으로 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. Lambda 함수를 프로파일링하고 AWS API 호출을 검색하도록 Amazon CodeGuru를 설정합니다. 각 Lambda 함수에 필요한 API 호출 및 리소스의 인벤토리를 생성합니다. 각 Lambda 함수에 대한 새 IAM 액세스 정책을 생성합니다. 새 정책 을 검토하여 회사의 비즈니스 요구 사항을 충족하는지 확인하십시오. B. AWS 계정에 대한 AWS CloudTrail 로깅을 켭니다. AWS Identity and Access Management Access Analyzer를 사용하여 CloudTrail 로그에 기록된 활동을 기반으로 IAM 액세스 정책을 생성합니다. 생성된 정책을 검토하여 회사의 비즈니스 요구 사항을 충족하는지 확인하십시오. C. AWS 계정에 대한 AWS CloudTrail 로깅을 켭니다. CloudTrail 로그를 구문 분석하고 Lambda 실행 역할별로 AWS API 호출을 검색하고 요약 보고서를 생성하는 스크립트를 생성합니다. 보고서를 검토합니다. 각 Lambda 함수에 대해 더 제한적인 권한을 제공하는 IAM 액세스 정책을 만듭니다. D. AWS 계정에 대한 AWS CloudTrail 로깅을 켭니다. CloudTrail 로그를 Amazon S3로 내보냅니다. Amazon EMR을 사용하여 Amazon S3에서 CloudTrail 로그를 처리하고 각 실행 역할에서 사용하는 API 호출 및 리소스에 대한 보고서를 생성합니다. 각 역할에 대한 새 IAM 액세스 정책을 생성합니다. 생성된 역할을 S3 버킷으로 내보냅니다. 생성된 정책을 검토하여 회사의 비즈니스 요구 사항을 충족하는지 확인하십시오. 회사에서 개발 및 프로덕션 워크로드를 AWS Organizations의 새 조직으로 마이그레이션하고 있습니다. 회사는 개발을 위한 별도의 회원 계정과 프로덕션을 위한 별도의 회원 계정을 생성했습니다. 통합 결제는 마스터 계정에 연결됩니다. 마스터 계정에서 솔루션 설계자는 두 멤버 계정의 리소스를 중지하거나 종료할 수 있는 IAM 사용자를 생성해야 합니다. 이 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 마스터 계정에서 IAM 사용자 및 교차 계정 역할을 생성합니다. 멤버 계정에 대한 최소 액세스 권한으로 교차 계정 역할을 구성합니다. B. 각 멤버 계정에서 IAM 사용자를 생성합니다. 마스터 계정에서 최소 권한 액세스 권한이 있는 교차 계정 역할을 생성합니다. 신뢰 정책을 사용하여 IAM 사용자에게 교차 계정 역할에 대한 액세스 권한을 부여합니다. C. 마스터 계정에서 IAM 사용자를 생성합니다. 멤버 계정에서 최소 액세스 권한이 있는 IAM 그룹을 생성합니다. 마스터 계정의 IAM 사용자를 멤버 계정의 각 IAM 그룹에 추가합니다. D. 마스터 계정에서 IAM 사용자를 생성합니다. 멤버 계정에서 최소 권한 액세스 권한이 있는 교차 계정 역할을 생성합니다. 신뢰 정책을 사용하여 IAM 사용자에게 역할에 대한 액세스 권한을 부여합니다. 회사에서 AWS 클라우드에 솔루션을 구축하고 있습니다. 수천 또는 장치가 솔루션에 연결되어 데이터를 전송합니다. 각 장치는 MQTT 프로토콜을 통해 실시간으로 데이터를 보내고 받을 수 있어야 합니다. 각 장치는 고유한 X.509 인증서를 사용하여 인증해 야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS IoT Core를 설정합니다. 각 디바이스에 대해 해당 Amazon MQ대기열을 생성하고 인증서를 프로비저닝합니다. 각 디바이스를 Amazon MQ에 연결합니다. B. NLB(Network Load Balancer)를 생성하고 AWS Lambda 권한 부여자로 구성합니다. Auto Scaling 그룹의 Amazon EC2 인스턴스에서 MQTT 브로커를 실행합니다. Auto Scaling 그룹을 NLConnect 각 장치를 NLB에 대한 대상으로 설정합니다. C. AWS IoT Core를 설정합니다. 각 디바이스에 대해 해당 AWS IoT 사물을 생성하고 인증서를 프로비저닝합니다. 각 디바이스를 AWS IoT Core에 연결합니다. D. Amazon API Gateway HTTP API 및 NLB(Network Load Balancer)를 설정합니다. API 게이트웨이와 NLB 간의 통합을 생성합니다. HTTP API에서 상호 TLS 인증 권한 부여자를 구성합니다. NLB가 대상으로 하는 Amazon EC2 인스턴스에서 MQTT 브로커를 실행합니다. 각 장치를 NLB에 연결합니다. 한 회사가 AWS 클라우드에서 여러 프로젝트를 개발하고 호스팅하고 있습니다. 프로젝트는 AWS Organizations의 동일한 조직에 있는 여러 AWS 계정에서 개발됩니다. 회사는 클라우드 인프라 비용을 소유 프로젝트에 할당해야 합니다. 모든 AWS 계정을 담당하는 팀은 여러 Amazon EC2 인스턴스에 비용 할당에 사용되는 프로젝트 태그가 없음을 발견했습니다. 솔루션 아키텍트가 문제를 해결하고 향후 발생하지 않도록 방지하기 위해 어떤 조치를 취해야 합니까? (3개를 선택하세요.). A. 태그가 누락된 리소스를 찾기 위해 각 계정에서 AWS Config 규칙을 생성합니다. B. 프로젝트 태그가 누락된 경우 조직에서 ec2:RunInstances에 대한 거부 작업으로 SCP를 생성합니다. C. 조직에서 Amazon Inspector를 사용하여 태그가 누락된 리소스를 찾습니다. D. 프로젝트 태그가 누락된 경우 ec2:RunInstances에 대한 거부 작업으로 각 계정에서 IAM 정책을 생성합니다. E. 조직에서 프로젝트 태그가 누락된 EC2 인스턴스 목록을 수집하도록 AWS Config 집계자를 생성합니다. F. AWS Security Hub를 사용하여 프로젝트 태그가 누락된 EC2 인스턴스 목록을 집계합니다. 솔루션 설계자가 이벤트를 처리하는 솔루션을 설계하고 있습니다. 솔루션에는 솔루션이 수신하는 이벤트 수에 따라 확장 및 축소할 수 있는 기능이 있어야 합니다. 처리 오류가 발생하면 이벤트는 검토를 위해 별도의 대기열로 이동해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Simple Notification Service(Amazon SNS) 주제로 이벤트 세부 정보를 보냅니다. 이벤트를 처리할 SNS 주제에 대한 구독자로 AWS Lambda 함수를 구성합니다. 기능에 실패 시 대상을 추가합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 대상으로 설정합니다. B. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트를 게시합니다. Amazon EC2 Auto Scaling 그룹을 생성합니다. 대기열의 ApproximateAgeOfOldestMessage 지표를 기반으로 확장 및 축소하도록 Auto Scaling 그룹을 구성합니다. 배달 못한 편지 큐에 실패한 메시지를 쓰도록 애플리케이션을 구성합니다. C. Amazon DynamoDB 테이블에 이벤트를 씁니다. 테이블에 대한 DynamoDB 스트림을 구성합니다. AWS Lambda 함 수를 호출하도록 스트림을 구성합니다. 이벤트를 처리하도록 Lambda 함수를 구성합니다. D. Amazon EventBridge 이벤트 버스에 이벤트를 게시합니다. Application Load Balancer(ALB) 뒤에 있는 Auto Scaling 그룹이 있는 Amazon EC2 인스턴스에서 애플리케이션을 생성하고 실행합니다. ALB를 이벤트 버스 대상으로 설정합니다. 이벤트를 재시도하도록 이벤트 버스를 구성하십시오. 애플리케이션이 메시지를 처리할 수 없는 경우 배달 못한 편지 대기열에 메시지를 씁니다. 회사는 Amazon EC2 인스턴스에서 기존 웹 애플리케이션을 실행하고 있습니다. 회사는 애플리케이션을 컨테이너에서 실행되는 마이크로서비스로 리팩터링해야 합니다. 애플리케이션의 별도 버전은 생산 및 테스트라는 두 가지 환경에 존재합니다. 애플리케이션에 대한 부하는 가변적이지만 최소 부하와 최대 부하가 알려져 있습니다. 솔루션 설계자는 운영 복잡성을 최소화하는 서버리스 아키텍처로 업데이트된 애플리케이션을 설계해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 컨테이너 이미지를 함수로 AWS Lambda에 업로드합니다. 예상되는 최대 로드를 처리하도록 연결된 Lambda 함수에 대한 동시성 제한을 구성합니다. Amazon API Gateway 내에서 두 개의 별도 Lambda 통합을 구성합니다. 하나는 프로덕션용 이고 다른 하나는 테스트용입니다. B. 컨테이너 이미지를 Amazon Elastic Container Registry(Amazon ECR)에 업로드합니다. 예상 로드를 처리하기 위해 Fargate 시작 유형을 사용하여 2개의 자동 확장 Amazon Elastic Container Service(Amazon ECS) 클러스터를 구성합니다. ECR 이미지에서 작업을 배포합니다. 두 개의 개별 Application Load Balancer를 구성하여 트래픽을 ECS 클러스터로 보냅니다. C. 컨테이너 이미지를 Amazon Elastic Container Registry(Amazon ECR)에 업로드합니다. 예상 로드를 처리하기 위해 Fargate 시작 유형을 사용하여 2개의 자동 확장 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 구 성합니다. ECR 이미지에서 작업을 배포합니다. 두 개의 개별 Application Load Balancer를 구성하여 트래픽을 EKS 클 러스터로 보냅니다. D. 컨테이너 이미지를 AWS Elastic Beanstalk에 업로드합니다. Elastic Beanstalk에서 프로덕션 및 테스트를 위한 별도의 환경과 배포를 생성합니다. 트래픽을 Elastic Beanstalk 배포로 보내도록 두 개의 개별 Application Load Balancer를 구성합니다. 회사의 공개 API는 Amazon Elastic Container Service(Amazon ECS)에서 작업으로 실행됩니다. 작업은 Application Load Balancer(ALB) 뒤에 있는 AWS Fargate에서 실행되며 CPU 사용률을 기반으로 작업에 대해 Service Auto Scaling 으로 구성됩니다. 이 서비스는 몇 달 동안 잘 운영되고 있습니다. 최근에 API 성능이 느려지고 애플리케이션을 사용할 수 없게 되었습니다. 이 회사는 API에 대해 상당한 수의 SQL 주입 공격이 발생했으며 API 서비스가 최대 규모로 확장되었음을 발견했습니다. 솔루션 설계자는 SQL 인젝션 공격이 ECS API 서비스에 도달하지 못하도록 방지하는 솔루션을 구현해야 합니다. 솔루션은 합법적인 트래픽을 허용해야 하며 운영 효율성을 극대화해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 새 AWS WAF 웹 ACL을 생성하여 ECS 작업 앞에서 ALB로 전달되는 HTTP 요청 및 HTTPS 요청을 모니터링합니다. B. 새로운 AWS WAF Bot Control 구현을 생성합니다. AWS WAF Bot Control 관리형 규칙 그룹에 규칙을 추가하여 트래픽을 모니터링하고 ECS 작업 앞의 ALB에 대한 적법한 트래픽만 허용합니다. C. 새로운 AWS WAF 웹 ACL을 생성합니다. SQL 데이터베이스 규칙 그룹과 일치하는 요청을 차단하는 새 규칙을 추가합니다. 해당 규칙과 일치하지 않는 다른 모든 트래픽을 허용하도록 웹 ACL을 설정합니다. ECS 작업 앞의 ALB에 웹 ACL을 연결합니다. D. 새 AWS WAF 웹 ACL을 생성합니다. AWS WAF에서 새로운 빈 IP 세트를 생성합니다. 새 IP 세트의 IP 주소에서 발생하 는 요청을 차단하려면 웹 ACL에 새 규칙을 추가하십시오. SQL 삽입 공격을 보내는 IP 주소에 대한 API 로그를 스크랩하는 AWS Lambda 함수를 생성하고 해당 IP 주소를 IP 세트에 추가합니다. ECS 작업 앞의 ALB에 웹 ACL을 연결합니다. 한 회사는 최근 플랫폼 변경 전략을 사용하여 온프레미스 데이터 센터에서 AWS 클라우드로의 마이그레이션을 완료했습니다. 마이그레이션된 서버 중 하나는 중요한 애플리케이션이 의존하는 레거시 SMTP(Simple Mail Transfer Protocol) 서비스를 실행하고 있습니다. 애플리케이션은 회사 고객에게 아웃바운드 이메일 메시지를 보냅니다. 레거시 SMTP 서버는 TLS 암호화를 지원하지 않으며 TCP 포트 25를 사용합니다. 애플리케이션은 SMTP만 사용할 수 있습니다. 회사는 Amazon Simple Email Service(Amazon SES)를 사용하고 레거시 SMTP 서버를 폐기하기로 결정합니다. 회사는 SES 도메인을 생성하고 검증했습니다. 회사는 SES 한도를 해제했습니다. Amazon SES에서 이메일 메시지를 보내도록 애플리케이션을 수정하려면 회사는 어떻게 해야 합니까?. A. TLS 래퍼를 사용하여 Amazon SES에 연결하도록 애플리케이션을 구성합니다. ses:SendEmail 및 ses:SendRawEmail 권한이 있는 IAM 역할을 생성합니다. Amazon EC2 인스턴스에 IAM 역할을 연결합니다. B. STARTTLS를 사용하여 Amazon SES에 연결하도록 애플리케이션을 구성합니다. Amazon SES SMTP 자격 증명을 얻 습니다. 자격 증명을 사용하여 Amazon SES로 인증합니다. C. SES API를 사용하여 이메일 메시지를 보내도록 애플리케이션을 구성합니다. ses:SendEmail 및 ses:SendRawEmail 권한이 있는 IAM 역할을 생성합니다. Amazon SES에 대한 서비스 역할로 IAM 역할을 사용합니다. D. AWS SDK를 사용하여 이메일 메시지를 보내도록 애플리케이션을 구성합니다. Amazon SES에 대한 IAM 사용자를 생성 합니다. API 액세스 키를 생성합니다. 액세스 키를 사용하여 Amazon SES로 인증합니다. 회사가 AWS 클라우드에서 애플리케이션을 실행하고 있습니다. 최근 애플리케이션 메트릭은 일관성 없는 응답 시간과 오류율의 상 당한 증가를 보여줍니다. 타 사 서비스에 대한 호출로 인해 지연이 발생합니다. 현재 애플리케이션은 AWS Lambda 함수를 직접 호출하여 타 사 서비스를 동기식으로 호출합니다. 솔루션 설계자는 타사 서비스 호출을 분리하고 모든 호출이 결국 완료되도록 해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 이벤트를 저장하고 Lambda 함수를 호출합니다. B. AWS Step Functions 상태 시스템을 사용하여 Lambda 함수에 이벤트를 전달합니다. C. Amazon EventBridge 규칙을 사용하여 이벤트를 Lambda 함수에 전달합니다. D. Amazon Simple Notification Service(Amazon SNS) 주제를 사용하여 이벤트를 저장하고 Lambda 함수를 호출합니다. 회사에서 AWS로 마이그레이션하려고 합니다. 회사는 모든 계정 및 애플리케이션에 대한 액세스를 중앙에서 관리하는 다중 계정 구조를 사용하려고 합니다. 회사는 또한 개인 네트워크에서 트래픽을 유지하려고 합니다. 로그인 시 다단계 인증(MFA)이 필요하며 특정 역할이 사용자 그룹에 할당됩니다. 회사는 개발을 위해 별도의 계정을 만들어야 합니다. 스테이징, 프로덕션 및 공유 네트워크. 프로덕션 계정과 공유 네트워크 계정은 모든 계정에 연결되어 있어야 합니다. 개발 계정과 스테이징 계정은 서로에게만 액세스 권한이 있어야 합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. AWS Control Tower를 사용하여 랜딩 존 환경을 배포합니다. 계정을 등록하고 기존 계정을 AWS Organizations의 결과 조직에 초대합니다. B. 모든 계정에서 AWS Security Hub를 활성화하여 교차 계정 액세스를 관리합니다. MFA 로그인을 강제하기 위해 AWS CloudTrail을 통해 조사 결과를 수집합니다. C. 각 계정에서 전송 게이트웨이 및 전송 게이트웨이 VPC 연결을 생성합니다. 적절한 라우팅 테이블을 구성합니다. D. AWS IAM Identity Center(AWS Single Sign-On)를 설정하고 활성화합니다. 기존 계정에 필요한 MFA를 사용하여 적절한 권한 집합을 만듭니다. E. 모든 계정에서 AWS Control Tower를 활성화하여 계정 간 라우팅을 관리합니다. MFA 로그인을 강제하기 위해 AWS CloudTrail을 통해 조사 결과를 수집합니다. F. IAM 사용자 및 그룹을 생성합니다. 모든 사용자에 대해 MFA를 구성합니다. Amazon Cognoto 사용자 풀과 자격 증명 풀을 설정하여 계정에 대한 액세스와 계정 간 액세스를 관리합니다. 회사는 서버에 대한 패치 프로세스를 구현해야 합니다. 온프레미스 서버와 Amazon EC2 인스턴스는 다양한 도구를 사용하여 패치를 수행합니다. 관리에는 모든 서버 및 인스턴스의 패치 상태를 보여주는 단일 보고서가 필요합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까?. A. AWS Systems Manager를 사용하여 온프레미스 서버 및 EC2 인스턴스에서 패치를 관리합니다. Systems Manager를 사용하여 패치 규정 준수 보고서를 생성합니다. B. AWS OpsWorks를 사용하여 온프레미스 서버 및 EC2 인스턴스에서 패치를 관리합니다. OpsWorks와 Amazon QuickSight 통합을 사용하여 패치 규정 준수 보고서를 생성합니다. C. Amazon EventBridge 규칙을 사용하여 AWS Systems Manager 패치 수정 작업을 예약하여 패치를 적용합니다. Amazon Inspector를 사용하여 패치 규정 준수 보고서를 생성하십시오. D. AWS OpsWorks를 사용하여 온프레미스 서버 및 EC2 인스턴스에서 패치를 관리합니다. AWS X-Ray를 사용하여 패치 상태를 AWS Systems Manager OpsCenter에 게시하여 패치 규정 준수 보고서를 생성합니다. 회사가 AWS 클라우드에서 애플리케이션을 실행하고 있습니다. 핵심 비즈니스 로직은 Auto Scaling 그룹의 Amazon EC2 인스턴스 세트에서 실행됩니다. ALB(Application Load Balancer)는 EC2 인스턴스에 트래픽을 분산합니다. Amazon Route53 레코드 api.example.com이 ALB를 가리키고 있습니다. 회사의 개발 팀은 비즈니스 논리를 크게 업데이트합니다. 회사에는 변경 사항이 배포되면 테스트 기간 동안 고객의 10%만 새로운 논리를 받을 수 있다는 규칙이 있습니다. 고객은 테스트 기간 동안 동일한 버전의 비즈니스 로직을 사용해야 합니다. 회사는 이러한 요구 사항을 충족하기 위해 업데이트를 어떻게 배포해야 합니까?. A. 두 번째 ALB를 만들고 새 Auto Scaling 그룹의 EC2 인스턴스 집합에 새 논리를 배포합니다. EC2 인스턴스에 트래픽을 분산하도록 ALB를 구성합니다. 가중치 기반 라우팅을 사용하도록 Route 53 레코드를 업데이트하고 레코드가 두 ALB를 가리키도록 합니다. B. ALB에서 참조하는 두 번째 대상 그룹을 생성합니다. 이 새 대상 그룹의 EC2 인스턴스에 새 논리를 배포합니다. 가중 대상 그룹을 사용하도록 ALB 리스너 규칙을 업데이트합니다. ALB 대상 그룹 고정성을 구성합니다. C. Auto Scaling 그룹에 대한 새로운 시작 구성을 생성합니다. AutoScalingRollingUpdate 정책을 사용하도록 시작 구성을 지정하고 MaxBatchSize 옵션을 10으로 설정합니다. Auto Scaling 그룹에서 시작 구성을 교체합니다. 변경 사항을 배포합 니다. D. ALB에서 참조하는 두 번째 Auto Scaling 그룹을 생성합니다. 이 새 Auto Scaling 그룹의 EC2 인스턴스 집합에 새 논리를 배포합니다. ALB 라우팅 알고리즘을 최소 미해결 요청(LOR)으로 변경합니다. ALB 세션 고정성을 구성합니다. 회사에는 밤마다 로컬 드라이브에 200GB 내보내기를 작성하는 온프레미스 Microsoft SQL Server 데이터베이스가 있습니다. 회사는 백업을 Amazon S3의 보다 강력한 클라우드 스토리지로 이동하려고 합니다. 회사는 온프레미스 데이터 센터와 AWS 간 에 10Gbps AWS Direct Connect 연결을 설정했습니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 새 S3 버킷을 생성합니다. Direct Connect 연결에 연결된 VPC 내에 AWS Storage Gateway 파일 게이트웨이를 배포합니다. 새 SMB 파일 공유를 만듭니다. 야간 데이터베이스 내보내기를 새 SMB 파일 공유에 씁니다. B. Direct Connect 연결에 연결된 VPC 내에 Windows 파일 서버 단일 AZ 파일 시스템용 Amazon FSx를 생성합니다. 새 SMB 파일 공유를 만듭니다. Amazon FSx 파일 시스템의 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다. 야 간 백업을 활성화합니다. C. Direct Connect 연결에 연결된 VPC 내에 Windows 파일 서버 다중 AZ 파일 시스템용 Amazon FSx를 생성합니다. 새 SMB 파일 공유를 만듭니다. Amazon FSx 파일 시스템의 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다. 야 간 백업을 활성화합니다. D. 새 S3 버킷을 생성합니다. Direct Connect 연결에 연결된 VPC 내에 AWS Storage Gateway 볼륨 게이트웨이를 배포 합니다. 새 SMB 파일 공유를 만듭니다. 볼륨 게이트웨이의 새 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성하고 이 데이터의 복사본을 S3 버킷으로 자동화합니다. 한 회사가 AWS에서 전체 인프라를 설정했습니다. 이 회사는 Amazon EC2 인스턴스를 사용하여 전자 상거래 웹 사이트를 호스팅하고 Amazon S3를 사용하여 정적 데이터를 저장합니다. 회사의 엔지니어 3명이 하나의 AWS 계정을 통해 클라우드 관리 및 개발을 처리합니다. 때때로 엔지니어가 다른 엔지니어의 EC2 보안 그룹 구성을 변경하여 환경에서 비준수 문제를 일으킵니다. 솔루션 설계자는 엔지니어가 수행한 변경 사항을 추적하는 시스템을 설정해야 합니다. 엔지니어가 EC2 인스턴스의 보안 설정을 비준수로 변경하면 시스템에서 알림을 보내야 합니다. 솔루션 설계자가 이러한 요구 사항을 충족하는 가장 빠른 방법은 무엇입니까?. A. 회사의 AWS Organizations를 설정합니다. SCP를 적용하여 AWS 계정에 대한 비준수 보안 그룹 변경 사항을 관리하고 추적합니다. B. AWS CloudTrail을 활성화하여 EC2 보안 그룹에 대한 변경 사항을 캡처합니다. 규정을 준수하지 않는 보안 설정이 감지되면 알림을 제공하도록 Amazon CloudWatch 규칙을 활성화합니다. C. 규정을 준수하지 않는 보안 그룹이 환경에 변경될 때 알림을 제공하도록 AWS 계정의 SCP를 활성화합니다. D. EC2 보안 그룹에서 AWS Config를 활성화하여 비준수 변경 사항을 추적합니다. Amazon Simple Notification Service(Amazon SNS) 주제를 통해 변경 사항을 알림으로 보냅니다. 한 회사가 인기 있는 온라인 게임의 속편을 만들고 있습니다. 전 세계의 많은 사용자가 출시 후 첫 주 이내에 게임을 플레이 할 것 입니다. 현재 게임은 단일 AWS 리전에 배포된 다음 구성 요소로 구성됩니다. * 게임 자산을 저장하는 Amazon S3 버킷 * 플레이어 점수를 저장하는 Amazon DynamoDB 테이블 솔루션 설계자는 지연 시간을 줄이고 안정성을 향상시키는 다중 리전 솔루션을 설계해야 합니다. 구현하는 데 최소한의 노력이 필요합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. S3 버킷의 자산을 제공하기 위해 Amazon CloudFront 배포를 생성합니다. S3 교차 리전 복제를 구성합니다. 새 리전에서 새 DynamoDB 테이블을 생성합니다. DynamoDB 전역 테이블의 복제 대상으로 새 테이블을 사용합니다. B. S3 버킷의 자산을 제공하기 위해 Amazon CloudFront 배포를 생성합니다. S3 동일 지역 복제를 구성합니다. 새 리전에서 새 DynamoDB 테이블을 생성합니다. CDC(변경 데이터 캡처)와 함께 AWS DMS(AWS Database Migration Service)를 사용하여 DynamoDB 테이블 간에 비동기식 복제를 구성합니다. C. 새 리전에 또 다른 S3 버킷을 생성하고 버킷 간에 S3 교차 리전 복제를 구성합니다. Amazon CloudFront 배포를 생성하고각 리전의 S3 버킷에 액세스하는 두 개의 오리진으로 오리진 장애 조치를 구성합니다. Amazon DynamoDB Streams를 활성화하여 DynamoDB 글로벌 테이블을 구성하고 새 리전에 복제본 테이블을 추가합니다. D. 사인 지역에 또 다른 S3 버킷을 생성하고 버킷 간에 S3 동일 지역 복제를 구성합니다. Amazon CloudFront 배포를 생성하고 S3 버킷에 액세스하는 두 개의 오리진으로 오리진 장애 조치를 구성합니다. 새 리전에서 새 DynamoDB 테이블을 생성합니다. DynamoDB 전역 테이블의 복제 대상으로 새 테이블을 사용합니다. 회사에서 문서 처리 워크로드를 AWS로 마이그레이션하고 있습니다. 이 회사는 기본적으로 Amazon S3 API를 사용하여 처리 서버가 초당 약 5개의 문서 속도로 생성하는 문서를 저장, 검색 및 수정하도록 많은 애플리케이션을 업데이트했습니다. 문서 처리가 완료되면 고객은 Amazon S3에서 직접 문서를 다운로드할 수 있습니다. 마이그레이션 과정에서 회사는 S3 API를 지원하기 위해 많은 문서를 생성하는 처리 서버를 즉시 업데이트할 수 없음을 발견했습니다. 서버는 Linux에서 실행되며 서버가 생성하고 수정하는 파일에 대한 빠른 로컬 액세스가 필요합니다. 서버가 처리를 마치면 파일을 30분 이내에 다운로드할 수 있도록 대중이 사용할 수 있어야 합니다. 최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 애플리케이션을 AWS Lambda 함수로 마이그레이션합니다. Java용 AWS SDK를 사용하여 회사에서 Amazon S3에 직 접 저장하는 파일을 생성, 수정 및 액세스합니다. B. Amazon S3 파일 게이트웨이를 설정하고 문서 저장소에 연결된 파일 공유를 구성합니다. NFS를 사용하여 Amazon EC2 인스턴스에 파일 공유를 탑재합니다. Amazon S3에서 변경 사항이 발생하면 RefreshCache API 호출을 시작하여 S3 파일 게이트웨이를 업데이트합니다. C. 가져오기 및 내보내기 정책으로 Amazon FSx for Lustre를 구성합니다. 새 파일 시스템을 S3 버킷에 연결합니다. NFS를 사용하여 Lustre 클라이언트를 설치하고 문서 저장소를 Amazon EC2 인스턴스에 마운트합니다. D. Amazon EC2 인스턴스에 연결하도록 AWS DataSync를 구성합니다. 생성된 파일을 Amazon S3와 동기화하도록 작업 을 구성합니다. 회사의 솔루션 아키텍트가 AWS에서 실행되는 웹 애플리케이션을 검토하고 있습니다. 애플리케이션은 us-east-1 리전의 Amazon S3 버킷에 있는 정적 자산을 참조합니다. 회사는 여러 AWS 리전에서 복원력이 필요합니다. 회사는 이미 두 번째 리전에 S3 버킷을 생성했습니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 각 객체를 두 S3 버킷에 쓰도록 애플리케이션을 구성합니다. 각 S3 버킷에 대한 가중 라우팅 정책을 사용하여 레코드 세트로Amazon Route 53 퍼블릭 호스팅 영역을 설정합니다. Route 53 DNS 이름을 사용하여 객체를 참조하도록 애플리케이션을 구성합니다. B. us-east-1의 S3 버킷에서 두 번째 리전의 S3 버킷으로 객체를 복사하는 AWS Lambda 함수를 생성합니다. 객체가 us- east-1의 S3 버킷에 기록될 때마다 Lambda 함수를 호출합니다. 두 개의 S3 버킷을 오리진으로 포함하는 오리진 그룹으로 Amazon CloudFront 배포를 설정합니다. C. 두 번째 리전의 S3 버킷에 개체를 복제하도록 us-east-1의 S3 버킷에서 복제를 구성합니다. 두 개의 S3 버킷을 오리진으로 포함하는 오리진 그룹으로 Amazon CloudFront 배포를 설정합니다. D. 두 번째 리전의 S3 버킷에 개체를 복제하도록 us-east-1의 S3 버킷에서 복제를 구성합니다. 장애 조치가 필요한 경우 두 번째 리전의 S3 버킷에서 S3 객체를 로드하도록 애플리케이션 코드를 업데이트합니다. 한 회사가 온프레미스에서 AWS로 워크로드를 마이그레이션하려고 합니다. 워크로드는 Linux 및 Windows에서 실행됩니다. 이 회사는 수많은 애플리케이션을 호스팅하는 물리적 머신과 VM으로 구성된 대규모 온프레미스 인프라를 보유하고 있습니다. 회사는 온프레미스 워크로드의 시스템 구성, 시스템 성능, 실행 중인 프로세스 및 네트워크 연결에 대한 세부 정보를 캡처해야 합니다. 회사는 또한 AWS 마이그레이션을 위해 온프레미스 애플리케이션을 그룹으로 나누어야 합니다. 회사는 가장 비용 효율적인 방식으로 AWS에서 워크로드를 실행할 수 있도록 Amazon EC2 인스턴스 유형에 대한 권장 사항이 필요합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 수행해야 합니까? (3개를 선택하세요.). A. 물리적 머신과 VM에 AWS Application Discovery Agent를 설치하여 기존 애플리케이션을 평가합니다. B. 물리적 머신과 VM에 AWS Systems Manager Agent를 설치하여 기존 애플리케이션을 평가합니다. C. AWS Systems Manager Application Manager를 사용하여 서버를 마이그레이션할 애플리케이션으로 그룹화합니다. D. AWS Migration Hub를 사용하여 서버를 마이그레이션용 애플리케이션으로 그룹화합니다. E. AWS Migration Hub를 사용하여 권장 인스턴스 유형 및 관련 비용을 생성합니다. F. 서버 크기에 대한 데이터를 AWS Trusted Advisor로 가져옵니다. 비용 최적화를 위한 권장 사항을 따르십시오. 금융 회사는 Amazon S3에서 데이터 레이크를 호스팅합니다. 회사는 SFTP를 통해 매일 밤 여러 제3자로부터 재무 데이터 기록을 받습니다. 회사는 VPC의 퍼블릭 서브넷에 있는 Amazon EC2 인스턴스에서 자체 SFTP 서버를 실행합니다. 파일이 업로드되면 동일한 인스턴스에서 실행되는 cron 작업에 의해 데이터 레이크로 이동됩니다. SFTP 서버는 Amazon Route 53을 사용하여 DNS sftp.example.com에서 연결할 수 있습니다. 솔루션 설계자는 SFTP 솔루션의 안정성과 확장성을 개선하기 위해 무엇을 해야 합니까?. A. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. ALB(Application Load Balancer) 뒤에 EC2 인스턴스를 배치합니다. ALB를 가리키도록 Route 53의 DNS 레코드 sftp.example.com을 업데이트합니다. B. SFTP 서버를 AWS Transfer for SFTP로 마이그레이션합니다. 서버 엔드포인트 호스트 이름을 가리키도록 Route 53의 DNS 레코드 sftp.example.com을 업데이트합니다. C. SFTP 서버를 AWS Storage Gateway의 파일 게이트웨이로 마이그레이션합니다. 파일 게이트웨이 엔드포인트를 가리키 도록 Route 53의 DNS 레코드 sftp.example.com을 업데이트합니다. D. NLB(Network Load Balancer) 뒤에 EC2 인스턴스를 배치합니다. NLB를 가리키도록 Route 53의 DNS 레코드 sftp.example.com을 업데이트합니다. 회사는 개발 환경의 단일 Windows Amazon EC2 인스턴스에서 콘텐츠 관리 애플리케이션을 실행합니다. 애플리케이션은 인스턴스에 루트 디바이스로 연결된 2TB Amazon Elastic Block Store(Amazon EBS) 볼륨에 정적 콘텐츠를 읽고 씁니다. 이 회사는 이 애플리케이션을 여러 가용 영역에 걸쳐 최소 3개의 EC2 인스턴스에서 실행되는 고가용성 및 내결함성 솔루션으로 프로덕션 환경에 배포할 계획입니다. 솔루션 설계자는 응용 프로그램을 실행하는 모든 인스턴스를 Active Directory 도메인에 연결하는 솔루션을 설계해야 합니다. 솔루션은 또한 Windows ACL을 구현하여 파일 콘텐츠에 대한 액세스를 제어해야 합니다. 애플리케이션은 항상 특정 시점에 실행중인 모든 인스턴스에서 정확히 동일한 콘텐츠를 유지해야 합니다. 최소한의 관리 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Elastic File System(Amazon EFS) 파일 공유를 생성합니다. 3개의 가용 영역에 걸쳐 확장되고 최소 3개의 인 스턴스 크기를 유지하는 Auto Scaling 그룹을 생성합니다. 사용자 데이터 스크립트를 구현하여 애플리케이션을 설치하고, 인스턴스를 AD 도메인에 가입하고, EFS 파일 공유를 마운트합니다. B. 실행 중인 현재 EC2 인스턴스에서 새 AMI를 생성합니다. Lustre용 Amazon FSx 파일 시스템을 생성합니다. 3개의 가용 영역에 걸쳐 확장되고 최소 3개의 인스턴스 크기를 유지하는 Auto Scaling 그룹을 생성합니다. 사용자 데이터 스크립트를 구현하여 인스턴스를 도메인에 AD 가입시키고 FSx for Lustre 파일 시스템을 마운트합니다. C. Windows 파일 서버 파일 시스템용 Amazon FSx를 생성합니다. 3개의 가용 영역에 걸쳐 확장되고 최소 3개의 인스턴스 크기를 유지하는 Auto Scaling 그룹을 생성합니다. 사용자 데이터 스크립트를 구현하여 애플리케이션을 설치하고 FSx for Windows File Server 파일 시스템을 마운트합니다. 원활한 도메인 가입을 수행하여 인스턴스를 AD 도메인에 가입합니다. D. 실행 중인 현재 EC2 인스턴스에서 새 AMI를 생성합니다. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 3개의 가용 영역에 걸쳐 확장되고 최소 3개의 인스턴스 크기를 유지하는 Auto Scaling 그룹을 생성합니다. 원활한 도메인 가입을 수행하여 인스턴스를 AD 도메인에 가입합니다. 한 회사가 온프레미스 데이터 센터에서 AWS로 레거시 애플리케이션을 마이그레이션하고 있습니다. 애플리케이션은 MongoDB 를 키-값 데이터베이스로 사용합니다. 회사의 기술 지침에 따르면 모든 Amazon EC2 인스턴스는 인터넷 연결 없이 프라이빗 서브넷에서 호스팅되어야 합니다. 또한 애플리케이션과 데이터베이스 간의 모든 연결은 암호화되어야 합니다. 데이터베이스는 필요에 따라 확장할 수 있어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 프로비저닝된 IOPS 볼륨이 있는 애플리케이션에 대한 새 Amazon DocumentDB(MongoDB 호환) 테이블을 생성합니다 . 인스턴스 엔드포인트를 사용하여 Amazon DocumentDB에 연결합니다. B. 온디맨드 용량으로 애플리케이션을 위한 새로운 Amazon DynamoDB 테이블을 생성합니다. DynamoDB용 게이트웨이 VPC 엔드포인트를 사용하여 DynamoDB 테이블에 연결합니다. C. 온디맨드 용량으로 애플리케이션을 위한 새로운 Amazon DynamoDB 테이블을 생성합니다. DynamoDB용 인터페이스 VPC 엔드포인트를 사용하여 DynamoDB 테이블에 연결합니다. D. 프로비저닝된 IOPS 볼륨이 있는 애플리케이션에 대한 새 Amazon DocumentDB(MongoDB 호환) 테이블을 생성합니다 . 클러스터 엔드포인트를 사용하여 Amazon DocumentDB에 연결합니다. 대규모 모바일 게임 회사가 모든 온프레미스 인프라를 AWS 클라우드로 성공적으로 마이그레이션했습니다. 솔루션 설계자는 설계에 따라 구축되었고 Well-Architected 프레임워크에 맞춰 실행되고 있는지 확인하기 위해 환경을 검토하고 있습니다. 비용 탐색기에서 이전 월별 비용을 검토하는 동안 솔루션 설계자는 여러 대형 인스턴스 유형의 생성 및 후속 종료가 비용의 높은 비율을 차지한다는 사실을 알게 됩니다. 솔루션 설계자는 회사의 개발자가 테스트의 일부로 새로운 Amazon EC2 인스턴스를 시작하고 있으며 개발자가 적절한 인스턴스 유형을 사용하고 있지 않음을 알게 됩니다. 솔루션 설계자는 개발자만 시작할 수 있는 인스턴스 유형을 제한하는 제어 메커니즘을 구현해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Config에서 원하는 인스턴스 유형의 관리형 규칙을 생성합니다. 허용되는 인스턴스 유형으로 규칙을 구성합니다. 새 EC2 인스턴스가 시작될 때마다 실행할 이벤트에 규칙을 연결합니다. B. EC2 콘솔에서 허용되는 인스턴스 유형을 지정하는 시작 템플릿을 생성합니다. 시작 템플릿을 개발자의 IAM 계정에 할당합니다. C. 새 IAM 정책을 만듭니다. 허용되는 인스턴스 유형을 지정합니다. 개발자의 IAM 계정이 포함된 IAM 그룹에 정책을 연결합니다. D. EC2 Image Builder를 사용하여 개발자를 위한 이미지 파이프라인을 생성하고 골든 이미지 생성을 지원합니다. 소프트웨어 회사는 Amazon API Gateway, AWS Lambda 함수 및 Amazon DynamoDB 테이블을 사용하여 REST API를 사용하는 애플리케이션을 배포했습니다. 애플리케이션에서 PUT 요청 중 오류 수가 증가한 것으로 나타났습니다. 대부분의 PUT 호출은 특정 API 키로 인증된 소수의 클라이언트에서 발생합니다. 솔루션 설계자는 많은 수의 PUT 요청이 한 클라이언트에서 발생함을 확인했습니다. API는 중요하지 않으며 클라이언트는 실패한 호출의 재시도를 허용할 수 있습니다. 그러나 오류가 고객에게 표시되어 API 평판이 손상됩니다. 솔루션 설계자는 고객 경험을 개선하기 위해 무엇을 추천해야 합니까?. A. 클라이언트 응용 프로그램에서 지수 백오프 및 불규칙한 변형으로 재시도 논리를 구현합니다. 설명 오류 메시지로 오류를 포착하고 처리하는지 확인하십시오. B. API 게이트웨이 수준에서 사용량 계획을 통해 API 조절을 구현합니다. 클라이언트 애플리케이션이 오류 없이 코드 429 응답을 처리하는지 확인하십시오. C. API 캐싱을 켜서 프로덕션 단계의 응답성을 높입니다. 10분 부하 테스트를 실행합니다. 캐시 용량이 워크로드에 적합한지 확인합니다. D. Lambda 기능 수준에서 예약된 동시성을 구현하여 트래픽이 갑자기 증가하는 동안 필요한 리소스를 제공합니다. 회사에는 회사의 비즈니스에 중요한 모놀리식 애플리케이션이 있습니다. 회사는 Amazon Linux 2를 실행하는 Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. 회사의 애플리케이션 팀은 법무 부서로부터 인스턴스의 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨에서 Amazon S3 버킷으로 데이터를 백업하라는 지시를 받습니다. 애플리케이션 팀에 인스턴스에 대한 관리 SSH 키 쌍이 없습니다. 애플리케이션은 계속해서 사용자에게 서비스를 제공해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon S3에 쓰기 권한이 있는 인스턴스에 역할을 연결합니다. AWS Systems Manager Session Manager 옵션을 사용하여 인스턴스에 대한 액세스 권한을 얻고 Amazon S3에 데이터를 복사하는 명령을 실행합니다. B. 재부팅 옵션을 켠 상태에서 인스턴스의 이미지를 생성합니다. 이미지에서 새 EC2 인스턴스를 시작합니다. Amazon S3 쓰기 권한이 있는 역할을 새 인스턴스에 연결합니다. Amazon S3에 데이터를 복사하는 명령을 실행합니다. C. Amazon DLM(Amazon Data Lifecycle Manager)을 사용하여 EBS 볼륨의 스냅샷을 만듭니다. 데이터를 Amazon S3에 복사합니다. D. 인스턴스의 이미지를 만듭니다. 이미지에서 새 EC2 인스턴스를 시작합니다. Amazon S3에 쓰기 권한이 있는 역할을 새 인스턴스에 연결합니다. Amazon S3에 데이터를 복사하는 명령을 실행합니다. 회사는 재무 정보에 대한 규제 감사를 받습니다. 단일 AWS 계정을 사용하는 외부 감사자는 회사의 AWS 계정에 액세스해야 합니다. 솔루션 설계자는 감사자에게 회사의 AWS 계정에 대한 안전한 읽기 전용 액세스 권한을 제공해야 합니다. 솔루션은 AWS 보안 모범 사례를 준수해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 회사의 AWS 계정에서 계정의 모든 리소스에 대한 리소스 정책을 생성하여 감사자의 AWS 계정에 대한 액세스 권한을 부여합니다. 리소스 정책에 고유한 외부 ID를 할당합니다. B. 회사의 AWS 계정에서 감사자의 AWS 계정을 신뢰하는 IAM 역할을 생성합니다. 필요한 권한이 있는 IAM 정책을 생성합니다. 정책을 역할에 연결합니다. 역할의 신뢰 정책에 고유한 외부 ID를 할당합니다. C. 회사의 AWS 계정에서 IAM 사용자를 생성합니다. 필요한 IAM 정책을 IAM 사용자에게 연결합니다. IAM 사용자에 대한 API 액세스 키를 생성합니다. 감사자와 액세스 키를 공유합니다. D. 회사의 AWS 계정에서 필요한 권한이 있는 IAM 그룹을 생성합니다. 각 감사자에 대해 회사 계정에 IAM 사용자를 만듭니다. IAM 그룹에 IAM 사용자를 추가합니다. 한 회사는 Amazon EFS에 저장된 많은 수의 공유 파일을 생성하는 밀접하게 연결된 워크로드를 위해 AWS에 고성능 컴퓨팅 (HPC) 클러스터를 구축했습니다. 클러스터의 Amazon EC2 인스턴스 수가 100개일 때는 클러스터가 잘 작동했습니다. 그러나 회사에서 클러스터 크기를 1,000개의 EC2 인스턴스로 늘렸을 때 전반적인 성능은 예상보다 훨씬 낮았습니다. 솔루션 설계자가 HPC 클러스터에서 최대 성능을 달성하기 위해 어떤 디자인을 선택해야 합니까? (3개를 선택하세요.). A. HPC 클러스터가 단일 가용 영역 내에서 시작되었는지 확인합니다. B. EC2 인스턴스를 시작하고 탄력적 네트워크 인터페이스를 4의 배수로 연결합니다. C. EFA(Elastic Fabric Adapter)가 활성화된 EC2 인스턴스 유형을 선택합니다. D. 클러스터가 여러 가용 영역에서 시작되는지 확인합니다. E. Amazon EFS를 RAID 어레이의 여러 Amazon EBS 볼륨으로 교체합니다. F. Amazon EFS를 Lustre용 Amazon FSx로 교체합니다. 회사에서 AWS 여러 계정을 사용하고 있습니다. DNS 레코드는 계정 A의 Amazon Route 53에 대한 프라이빗 호스팅 영역에 저장됩니다. 회사의 애플리케이션과 데이터베이스는 계정 B에서 실행 중입니다. 솔루션 설계자는 새 VPC에 2계층 애플리케이션을 배포합니다. 구성을 단순화하기 위해 Amazon RDS 엔드포인트에 대한db.example.com CNAME 레코드 세트가 Amazon Route 53의 프라이빗 호스팅 영역에 생성되었습니다. 배포 중에 애플리케이션이 시작되지 않았습니다. 문제 해결 결과 Amazon EC2 인스턴스에서 db.example.com을 확인할 수 없는 것으로 나타났습니다. 솔루션 설계자는 Route 53에서 레코드 세트가 올바르게 생성되었음을 확인했습니다. 이 문제를 해결하기 위해 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. 새 VPC의 별도 EC2 인스턴스에 데이터베이스를 배포합니다. 프라이빗 호스팅 영역에서 인스턴스의 프라이빗 IP에 대한 레코드 세트를 생성합니다. B. SSH를 사용하여 애플리케이션 계층 EC2 인스턴스에 연결합니다. RDS 엔드포인트 IP 주소를 /etc/resolv.conf 파일에 추 가합니다. C. 계정 A의 프라이빗 호스팅 영역을 계정 B의 새 VPC와 연결하기 위한 권한 부여를 생성합니다. D. 계정 B에서 예제 com 도메인에 대한 프라이빗 호스팅 영역을 생성합니다. AWS 계정 간에 Route 53 복제를 구성합니다. E. 계정 B의 새 VPC를 계정 A의 호스팅 영역과 연결합니다. 계정 A에서 연결 승인을 삭제합니다. 한 회사가 단일 Amazon EC2 인스턴스에서 중요한 애플리케이션을 호스팅하고 있습니다. 이 애플리케이션은 인 메모리 데이터 스토어를 위해 Redis 단일 노드 클러스터용 Amazon ElastiCache를 사용합니다. 이 애플리케이션은 관계형 데이터베이스에 Amazon RDS for MariaDB DB 인스턴스를 사용합니다. 애플리케이션이 작동하려면 인프라의 각 부분이 정상이어야 하고 활성 상태여야 합니다. 솔루션 설계자는 애플리케이션의 아키텍처를 개선하여 인프라가 가동 중지 시간을 최소화하면서 장애로부터 자동으로 복구할 수 있도록 해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. Elastic Load Balancer를 사용하여 여러 EC2 인스턴스에 트래픽을 분산합니다. EC2 인스턴스가 최소 용량이 인스턴스 2 개인 Auto Scaling 그룹의 일부인지 확인합니다. B. Elastic Load Balancer를 사용하여 여러 EC2 인스턴스에 트래픽을 분산합니다. EC2 인스턴스가 무제한 모드로 구성되어 있는지 확인하십시오. C. 동일한 가용 영역에서 읽기 전용 복제본을 생성하도록 DB 인스턴스를 수정합니다. 장애 시나리오에서 읽기 전용 복제본을 기본 DB 인스턴스로 승격합니다. D. 두 가용 영역에 걸쳐 확장되는 다중 AZ 배포를 생성하도록 DB 인스턴스를 수정합니다. E. Redis 클러스터용 ElastiCache에 대한 복제 그룹을 생성합니다. 최소 용량이 인스턴스 2개인 Auto Scaling 그룹을 사용 하도록 클러스터를 구성합니다. F. Redis 클러스터용 ElastiCache에 대한 복제 그룹을 생성합니다. 클러스터에서 다중 AZ를 활성화합니다. 회사에서 문서 처리 워크로드를 AWS로 마이그레이션하고 있습니다. 이 회사는 기본적으로 Amazon S3 API를 사용하여 처리 서버가 초당 약 5개의 문서 속도로 생성하는 문서를 저장, 검색 및 수정하도록 많은 애플리케이션을 업데이트했습니다. 문서 처리가 완료되면 고객은 Amazon S3에서 직접 문서를 다운로드할 수 있습니다. 마이그레이션 과정에서 회사는 S3 API를 지원하기 위해 많은 문서를 생성하는 처리 서버를 즉시 업데이트할 수 없음을 발견했습니 다. 서버는 Linux에서 실행되며 서버가 생성하고 수정하는 파일에 대한 빠른 로컬 액세스가 필요합니다. 서버가 처리를 마치면 파일을 30분 이내에 다운로드할 수 있도록 대중이 사용할 수 있어야 합니다. 최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 애플리케이션을 AWS Lambda 함수로 마이그레이션합니다. Java용 AWS SDK를 사용하여 회사에서 Amazon S3에 직접 저장하는 파일을 생성, 수정 및 액세스합니다. B. Amazon S3 파일 게이트웨이를 설정하고 문서 저장소에 연결된 파일 공유를 구성합니다. NFS를 사용하여 Amazon EC2 인스턴스에 파일 공유를 탑재합니다. Amazon S3에서 변경 사항이 발생하면 RefreshCache API 호출을 시작하여 S3 파일 게이트웨이를 업데이트합니다. C. 가져오기 및 내보내기 정책으로 Amazon FSx for Lustre를 구성합니다. 새 파일 시스템을 S3 버킷에 연결합니다. NFS를 사용하여 Lustre 클라이언트를 설치하고 문서 저장소를 Amazon EC2 인스턴스에 마운트합니다. D. Amazon EC2 인스턴스에 연결하도록 AWS DataSync를 구성합니다. 생성된 파일을 Amazon S3와 동기화 하도록 작업 을 구성합니다. 솔루션 아키텍트는 비용을 최적화하고 단일 AWS 계정에서 Amazon EC2 인스턴스의 크기를 적절하게 조정하려고 합니다. 솔루션 아키텍트는 인스턴스가 CPU, 메모리 및 네트워크 메트릭을 기반으로 최적화되었는지 확인하려고 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (두 가지를 선택하세요.). A. 해당 계정에 대한 AWS Business Support 또는 AWS Enterprise Support를 구매합니다. B. AWS Trusted Advisor를 켜고 "사용률이 낮은 Amazon EC2 인스턴스" 권장 사항을 검토합니다. C. Amazon CloudWatch 에이전트를 설치하고 EC2 인스턴스에서 메모리 메트릭 수집을 구성합니다. D. 결과 및 최적화 권장 사항을 수신하도록 AWS 계정에서 AWS Compute Optimizer를 구성합니다. E. 관심 있는 AWS 리전, 인스턴스 제품군 및 운영 체제에 대한 EC2 인스턴스 절감 계획을 생성합니다. 솔루션 설계자는 중요한 Microsoft SQL Server 데이터베이스를 AWS로 마이그레이션할 계획입니다. 데이터베이스는 레거시 시스템이므로 솔루션 설계자는 데이터베이스를 최신 데이터 아키텍처로 이동합니다. 솔루션 설계자는 다운타임이 거의 없이 데이터베이스를 마이그레이션해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Application Migration Service 및 AWS Schema Conversion Tool(AWS SCT)을 사용합니다. 마이그레이션 전에 인플레이스 업그레이드를 수행하십시오. 컷오버 후 마이그레이션된 데이터를 Amazon Aurora Serverless로 내보냅니다. 애플리케이션을 Amazon Aurora로 재지정합니다. B. AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스를 다시 호스팅합니다. Amazon S3를 대상으로 설정합니다. CDC(변경 데이터 캡처) 복제를 설정합니다. 원본과 대상이 완전히 동기화되면 Amazon S3에서 Microsoft SQL Server DB 인스턴스용 Amazon RDS로 데이터를 로드합니다. C. 기본 데이터베이스 고가용성 도구를 사용합니다. 소스 시스템을 Microsoft SQL Server DB 인스턴스용 Amazon RDS에 연결합니다. 그에 따라 복제를 구성합니다. 데이터 복제가 완료되면 워크로드를 Microsoft SQL Server DB 인스턴스용 Amazon RDS로 전환합니다. D. AWS 애플리케이션 마이그레이션 서비스를 사용합니다. Amazon EC2에서 데이터베이스 서버를 다시 호스팅합니다. 데이터 복제가 완료되면 데이터베이스를 분리하고 데이터베이스를 Microsoft SQL Server DB 인스턴스용 Amazon RDS로 이동합니다. 데이터베이스를 다시 연결한 다음 모든 네트워킹을 끊습니다. 솔루션 설계자가 Amazon RDS DB 인스턴스의 스냅샷을 만드는 회사의 프로세스를 검토하고 있습니다. 회사는 매일 자동 스냅샷을 찍고 7일 동안 스냅샷을 보관합니다. 솔루션 설계자는 6시간마다 스냅샷을 만들고 30일 동안 스냅샷을 유지하는 솔루션을 추천해야 합니다. 이 회사는 AWS Organizations를 사용하여 모든 AWS 계정을 관리합니다. 회사는 RDS 스냅샷의 상태에 대한 통합 보기가 필요합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Backup에서 교차 계정 관리 기능을 켭니다. 빈도 및 보존 요구 사항을 지정하는 백업 계획을 만듭니다. DB 인스턴스에 태그를 추가합니다. 태그를 사용하여 백업 계획을 적용합니다. AWS Backup을 사용하여 백업 상태를 모니터링합니다. B. Amazon RDS에서 교차 계정 관리 기능을 켭니다. 빈도 및 보존 요구 사항을 지정하는 스냅샷 글로벌 정책을 만듭니다. 관리계정의 RDS 콘솔을 사용하여 백업 상태를 모니터링합니다. C. AWS CloudFormation에서 교차 계정 관리 기능을 켭니다. 마스터 계정에서 빈도 및 보존 요구 사항을 지정하는 AWS Backup의 백업 계획이 포함된 CloudFormation 스택 세트를 배포합니다. 마스터 계정에서 AWS Lambda 함수를 생성 하여 백업 상태를 모니터링합니다. 각 계정에서 Amazon EventBridge 규칙을 생성하여 일정에 따라 Lambda 함수를 실행 합니다. D. 각 계정에서 AWS Backup을 구성합니다. 빈도 및 보존 요구 사항을 지정하는 Amazon Data Lifecycle Manager 수명 주기 정책을 생성합니다. 대상 리소스로 DB 인스턴스를 지정합니다. 각 멤버 계정에서 Amazon Data Lifecycle Manager 콘솔을 사용하여 백업 상태를 모니터링합니다. 회사는 로드 밸런서를 사용하여 단일 가용 영역의 인스턴스에 트래픽을 Amazon EC2 분산합니다. 이 회사는 보안에 대해 우려하고 있으며 솔루션 설계자가 다음 요구 사항을 충족하도록 솔루션을 다시 설계하기를 원합니다. * 일반적인 취약성 공격에 대해 인바운드 요청을 필터링해야 합니다. * 거부된 요청은 타사 감사 응용 프로그램으로 보내야 합니다. * 모든 리소스는 가용성이 높아야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 애플리케이션의 AMI를 사용하여 다중 AZ Auto Scaling 그룹을 구성합니다. ALB(Application Load Balancer)를 생성하고 이전에 생성한 Auto Scaling 그룹을 대상으로 선택합니다. Amazon Inspector를 사용하여 ALB 및 EC2 인스턴스에 대한 트래픽을 모니터링합니다. WAF에서 웹 ACL을 생성합니다. 웹 ACL 및 ALB를 사용하여 AWS WAF를 생성합니다. AWS Lambda 함수를 사용하여 Amazon Inspector 보고서를 타사 감사 애플리케이션에 자주 푸시합니다. B. ALB(Application Load Balancer)를 구성하고 EC2 인스턴스를 대상으로 추가합니다. WAF에서 웹 ACL을 생성합니다. 웹 ACL 및 ALB 이름을 사용하여 AWS WAF를 생성하고 Amazon CloudWatch Logs로 로깅을 활성화합니다. AWS Lambda 함수를 사용하여 타사 감사 애플리케이션에 로그를 자주 푸시합니다. C. EC2 인스턴스를 대상으로 추가하는 대상 그룹과 함께 Application Load Balancer(ALB)를 구성합니다. 타사 감사 애플리 케이션의 대상으로 Amazon Kinesis Data Firehose를 생성합니다. WAF에서 웹 ACL을 생성합니다. 웹 ACL 및 ALB 를 사용하여 AWS WAF를 생성한 다음 Kinesis Data Firehose를 대상으로 선택하여 로깅을 활성화합니다. WAF를 구독자로 선택하여 AWS Marketplace에서 AWS 관리형 규칙을 구독합니다. D. 애플리케이션의 AMI를 사용하여 다중 AZ Auto Scaling 그룹을 구성합니다. ALB(Application Load Balancer)를 생성하고 이전에 생성한 Auto Scaling 그룹을 대상으로 선택합니다. 타사 감사 애플리케이션의 대상으로 Amazon Kinesis Data Firehose를 생성합니다. WAF에서 웹 ACL을 생성합니다. WebACL 및 ALB를 사용하여 AWS WAF를 생성한 다음 Kinesis Data Firehose를 대상으로 선택하여 로깅을 활성화합니다. WAF를 구독자로 선택하여 AWS Marketplace 에서 AWS 관리형 규칙을 구독합니다. 회사에서 모놀리식 애플리케이션을 AWS에 배포된 최신 애플리케이션 디자인으로 리팩터링할 계획입니다. CI/CD 파이프라인은 다음과 같은 요구 사항이 있는 애플리케이션의 최신 디자인을 지원하도록 업그레이드해야 합니다. * 변경 사항을 매시간 여러 번 릴리스할 수 있어야 합니다. * 가능한 한 빨리 변경 사항을 롤백할 수 있어야 합니다. 이러한 요구 사항을 충족하는 디자인은 무엇입니까?. A. 애플리케이션 및 해당 구성을 포함하기 위해 AMI를 통합하는 CI/CD 파이프라인을 배포합니다. Amazon EC2 인스턴스를 교체하여 애플리케이션을 배포합니다. B. 애플리케이션의 CI/CD 파이프라인에 대한 배포 대상으로 보조 환경에서 스테이징할 AWS Elastic Beanstalk를 지정합니 다. 배포하려면 스테이징 및 프로덕션 환경 URL을 교환합니다. C. AWS Systems Manager를 사용하여 각 배포에 대한 인프라를 다시 프로비저닝합니다. Amazon EC2 사용자 데이터를 업데이트하여 Amazon S3에서 최신 코드 아티팩트를 가져오고 Amazon Route 53 가중 라우팅을 사용하여 새 환경을 가리킵니다. D. 사전 구축된 AMI를 사용하여 Auto Scaling 이벤트의 일부로 애플리케이션 업데이트를 롤아웃합니다. 새 버전의 AMI를 사용하여 인스턴스를 추가합니다. 배포 이벤트 중에 구성된 종료 정책과 함께 이전 AMI 버전을 사용하는 모든 인스턴스를 단계적 으로 제거합니다. 한 회사에서 REST 기반 API를 통해 여러 고객에게 날씨 데이터를 제공하고 있습니다. API는 Amazon API Gateway에서 호스팅되며 각 API 작업에 대해 서로 다른 AWS Lambda 함수와 통합됩니다. 이 회사는 DNS에 Amazon Route 53을 사용하고 weather.example.com이라는 리소스 레코드를 생성했습니다. 회사는 API용 데이터를 Amazon DynamoDB 테이블에 저장합니다. 회사는 API가 다른 AWS 리전으로 장애 조치할 수 있는 기능을 제공하는 솔루션이 필요합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 새로운 지역에 새로운 Lambda 함수 세트를 배포합니다. 두 리전의 Lambda 함수를 대상으로 사용하여 엣지 최적화 API 엔드포인트를 사용하도록 API Gateway API를 업데이트합니다. DynamoDB 테이블을 전역 테이블로 변환합니다. B. 다른 리전에 새 및 함수를 API Gateway API Lambda 배포합니다. Route 53 DNS 레코드를 다중값 응답으로 변경합니다. 답변에 두 API 게이트웨이 API를 모두 추가합니다. 대상 상태 모니터링을 활성화합니다. DynamoDB 테이블을 전역 테이블로 변환합니다. C. 다른 리전에 새 API Gateway API 및 Lambda 함수를 배포합니다. Route 53 DNS 레코드를 장애 조치 레코드로 변경합니다. 대상 상태 모니터링을 활성화합니다. DynamoDB 테이블을 전역 테이블로 변환합니다. D. 새 리전에 새 API Gateway API를 배포합니다. Lambda 함수를 전역 함수로 변경합니다. Route 53 DNS 레코드를 다중값 응답으로 변경합니다. 답변에 두 API 게이트웨이 API를 모두 추가합니다. 대상 상태 모니터링을 활성화합니다. DynamoDB 테이블을 전역 테이블로 변환합니다. 소매 회사는 유럽에 온프레미스 데이터 센터가 있습니다. 이 회사는 또한 eu-west-1 및 us-east-1 리전을 포함하는 다중 리전 AWS를 보유하고 있습니다. 회사는 온프레미스 인프라에서 이러한 리전 중 하나에 있는 VPC로 네트워크 트래픽을 라우팅할 수 있기를 원합니다. 또한 회사는 해당 리전의 VPC 간에 직접 라우팅되는 트래픽을 지원해야 합니다. 네트워크에는 단일 장애 지점이 존재할 수 없습니다. 이 회사는 이미 온프레미스 데이터 센터에서 2개의 1Gbps AWS Direct Connect 연결을 생성했습니다. 각 연결은 고가용성을 위해 유럽의 별도 Direct Connect 위치로 이동합니다. 이 두 위치는 각각 DX-A 및 DX-B로 명명됩니다. 각 리전에는 해당 리전 내의 모든 VPC 간 트래픽을 라우팅하도록 구성된 단일 AWS Transit Gateway가 있습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. DX-A 연결에서 Direct Connect 게이트웨이로 Private VIF를 생성합니다. 고가용성을 위해 DX-B 연결에서 동일한 Direct Connect 게이트웨이로 프라이빗 VIF를 생성합니다. eu-west-1 및 us-east-1 전송 게이트웨이를 모두 Direct Connect 게이트웨이와 연결합니다. 교차 리전 라우팅을 지원하기 위해 전송 게이트웨이를 서로 피어링합니다. B. DX-A 연결에서 Direct Connect 게이트웨이로 Transit VIF를 생성합니다. eu-west-1 전송 게이트웨이를 이 Direct Connect 게이트웨이와 연결합니다. DX-B 연결에서 별도의 Direct Connect 게이트웨이로 전송 VIF를 생성합니다. us-east-1 전송 게이트웨이를 이 별도의 Direct Connect 게이트웨이와 연결합니다. Direct Connect 게이트웨이를 서로 피어링하여 고가용성 및 리전 간 라우팅을 지원합니다. C. DX-A 연결에서 Direct Connect 게이트웨이로 Transit VIF를 생성합니다. 고가용성을 위해 DX-B 연결에서 동일한 Direct Connect 게이트웨이로 전송 VIF를 생성합니다. eu-west-1 및 us-east-1 전송 게이트웨이를 모두 이 Direct Connect 게이트웨이와 연결합니다. 전송 게이트웨이 간에 트래픽을 라우팅하도록 Direct Connect 게이트웨이를 구성합니다. D. DX-A 연결에서 Direct Connect 게이트웨이로 Transit VIF를 생성합니다. 고가용성을 위해 DX-B 연결에서 동일한 Direct Connect 게이트웨이로 전송 VIF를 생성합니다. eu-west-1 및 us-east-1 전송 게이트웨이를 모두 이 Direct Connect 게이트웨이와 연결합니다. 교차 리전 라우팅을 지원하기 위해 전송 게이트웨이를 서로 피어링합니다. 회사는 고객 트랜잭션 데이터베이스를 온프레미스에서 AWS로 마이그레이션해야 합니다. 데이터베이스는 Linux 서버에서 실행되는 Oracle DB 인스턴스에 상주합니다. 새로운 보안 요구 사항에 따라 회사는 매년 데이터베이스 암호를 순환해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스를 Amazon DynamoDB로 변환합니다. AWS Systems Manager Parameter Store에 암호를 저장합니다. 연간 패스워드 교체를 위해 AWS Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다. B. 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. AWS Secrets Manager에 암호를 저장합니다. 자동 회전을 켭니다. 연간 순환 일정을 구성합니다. C. 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. AWS Systems Manager Parameter Store를 사용하 여 연간 일정에 따라 AWS Lambda 함수를 사용하여 연결 문자열을 유지하고 교체합니다. D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스를 Amazon Neptune으로 마이그레이션합니다. 연간 암호 교체를 위해 AWS Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다. 한 회사에서 연구원들이 다양한 모집단으로부터 대량의 데이터 샘플을 수집하는 데 도움이 되도록 게놈 정보를 수집할 유전자 보고 장치를 개발하고 있습니다. 이 장치는 데이터를 처리 및 분석하고 연구원에게 정보를 다시 제공해야 하는 데이터 플랫폼에 매 초 8KB의 게놈 데이터를 푸시합니다. 데이터 플랫폼은 다음 요구 사항을 충족해야 합니다. * 인바운드 게놈 데이터에 대한 실시간에 가까운 분석 제공 * 데이터가 유연하고 병렬적이며 내구성이 있는지 확인 * 처리 결과를 데이터 웨어하우스에 전달 솔루션 설계자는 어떤 전략을 사용해야 합니까? 이러한 요구 사항을 충족합니까?. A. Amazon Kinesis Data Firehose를 사용하여 인바운드 센서 데이터를 수집하고 Kinesis 클라이언트로 데이터를 분석하고 결과를 Amazon RDS 인스턴스에 저장합니다. B. Amazon Kinesis Data Streams를 사용하여 인바운드 센서 데이터를 수집하고, Kinesis 클라이언트로 데이터를 분석하고, Amazon EMR을 사용하여 Amazon Redshift 클러스터에 결과를 저장합니다. C. Amazon S3를 사용하여 인바운드 디바이스 데이터를 수집하고 Amazon SQS에서 Kinesis로 데이터를 분석하고 결과를 Amazon Redshift 클러스터에 저장합니다. D. Amazon API Gateway를 사용하여 요청을 Amazon SQS 대기열에 넣고, AWS Lambda 함수로 데이터를 분석하고, Amazon EMR을 사용하여 Amazon Redshift 클러스터에 결과를 저장합니다. 회사의 공장 및 자동화 애플리케이션이 단일 VPC에서 실행되고 있습니다. 20개 이상의 애플리케이션이 Amazon EC2, Amazon Elastic Container Service(Amazon ECS) 및 Amazon RDS의 조합에서 실행됩니다. 이 회사에는 세 팀에 소프트웨어 엔지니어가 분산되어 있습니다. 세 팀 중 한 팀이 각 애플리케이션을 소유하고 매번 모든 애플리케이션의 비용과 성능을 책임집니다. 팀 리소스에는 애플리케이션과 팀을 나타내는 태그가 있습니다. 팀은 일상 활동에 IAM 액세스를사용합니다. 회사는 월별 AWS 청구서에서 각 애플리케이션 또는 팀에 귀속되는 비용을 결정해야 합니다. 회사는 또한 지난 12개월의 비용을 비교하고 향후 12개월의 비용을 예측하는 데 도움이 되는 보고서를 생성할 수 있어야 합니다. 솔루션 설계자는 이러한 비용 보고서를 제공하는 AWS Billing and Cost Management 솔루션을 추천해야 합니다. 이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (3개를 선택하세요.). A. 애플리케이션과 팀을 나타내는 사용자 정의 비용 할당 태그를 활성화합니다. B. 애플리케이션과 팀을 나타내는 AWS 생성 비용 할당 태그를 활성화합니다. C. Billing and Cost Management에서 각 애플리케이션에 대한 비용 범주를 생성합니다. D. Billing and Cost Management에 대한 IAM 액세스를 활성화합니다. E. 비용 예산을 작성합니다. F. 비용 탐색기를 활성화합니다. 회사는 사용자에게 맞춤형 애플리케이션에서 이미지를 업로드할 수 있는 기능을 제공합니다. 업로드 프로세스는 Amazon S3 버킷에서 이미지를 처리하고 저장하는 AWS Lambda 함수를 호출합니다. 애플리케이션은 특정 함수 버전 ARN을 사용하여 Lambda 함수를 호출합니다. Lambda 함수는 환경 변수를 사용하여 이미지 처리 매개변수를 수락합니다. 회사는 종종 최적의 이미지 처리 출력을 얻기 위해Lambda 함수의 환경 변수를 조정합니다. 회사는 다양한 매개변수를 테스트하고 결과를 확인한 후 업데이트된 환경 변수로 새 기능 버전을 게시합니다. 또한 이 업데이트 프로세스에서는 새 기능 버전 ARN을 호출하기 위해 사용자 지정 애플리케이션을 자주 변경해야 합니다. 이러한 변경 사항은 사용자에게 방해가 됩니다. 솔루션 설계자는 이 프로세스를 단순화하여 사용자의 혼란을 최소화해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 게시된 Lambda 함수 버전의 환경 변수를 직접 수정합니다. SLATEST 버전을 사용하여 이미지 처리 매개변수를 테스트합니다. B. 이미지 처리 매개변수를 저장할 Amazon DynamoDB 테이블을 생성합니다. DynamoDB 테이블에서 이미지 처리 매개변 수를 검색하도록 Lambda 함수를 수정합니다. C. Lambda 함수 내에서 이미지 처리 매개변수를 직접 코딩하고 환경 변수를 제거합니다. 회사에서 매개변수를 업데이트하면 새 기능 버전을 게시합니다. D. Lambda 함수 별칭을 생성합니다. 함수 별칭 ARN을 사용하도록 클라이언트 애플리케이션을 수정합니다. 회사에서 테스트를 완료하면 함수의 새 버전을 가리키도록 Lambda 별칭을 재구성합니다. 회사는 두 개의 개별 비즈니스 단위로 구성됩니다. 각 사업부는 AWS Organizations의 단일 조직 내에 자체 AWS 계정을 가지고 있습니다. 비즈니스 단위는 정기적으로 중요한 문서를 서로 공유합니다. 공유를 용이하게 하기 위해 회사는 각 계정에 Amazon S3 버킷을 생성하고 S3 버킷 간에 저속 복제를 구성했습니다. S3 버킷에는 수백만 개의 객체가 있습니다. 최근 보안 감사에서 두 S3 버킷 모두 유휴 암호화가 활성화되어 있지 않은 것으로 확인되었습니다. 회사 정책에 따라 모든 문서는 저장 시 암호화된 상태로 저장되어야 합니다. 회사는 Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 구현하려고 합니다. 이러한 요구 사항을 충족하는 운영상 가장 효율적인 솔루션은 무엇입니까?. A. 두 S3 버킷에서 SSE-S3를 켭니다. S3 배치 작업을 사용하여 동일한 위치에서 객체를 복사하고 암호화합니다. B. 각 계정에서 AWS Key Management Service(AWS KMS) 키를 생성합니다. 해당 AWS 계정에서 해당 KMS 키를 사용하여 각 S3 버킷에서 AWS KMS 키(SSE-KMS)로 서버 측 암호화를 켭니다. AWS CLI에서 S3 복사 명령을 사용하여 기존 객체를 암호화합니다. C. 두 S3 버킷에서 SSE-S3를 켭니다. AWS CLI에서 S3 복사 명령을 사용하여 기존 객체를 암호화합니다. D. 각 계정에서 AWS Key Management Service(AWS KMS) 키를 생성합니다. 해당 AWS 계정에서 해당 KMS 키를 사용하여 각 S3 버킷에서 AWS KMS 키(SSE-KMS)로 서버 측 암호화를 켭니다. S3 배치 작업을 사용하여 객체를 동일한 위치에 복사합니다. 솔루션 설계자는 새 Amazon S3 버킷에 저장될 객체에 대한 클라이언트 측 암호화 메커니즘을 구현해야 합니다. 솔루션 설계자는 이를 위해 AWS Key Management Service(AWS KMS)에 저장되는 CMK를 생성했습니다. 솔루션 설계자는 다음 IAM 정책을 생성하여 IAM 역할에 연결했습니다. 테스트 중에 솔루션 설계자는 버킷에서 기존 테스트 객체를 성공적으로 가져올 S3 수 있었습니다. 그러나 새 개체를 업로드하려고 하면 오류 메시지가 나타납니다. 작업이 금지되었다는 오류 메시지가 표시됩니다. 모든 요구 사항을 충족하기 위해 솔루션 설계자가 IAM 정책에 추가해야 하는 작업은 무엇입니까?. A. kms:GenerateDataKey. B. kms:GetKeyPolicy. C. kms:GetPublicKey. D. kms:Sign. 회사에서 대량의 보관 문서를 저장하고 회사 인트라넷을 통해 직원이 문서를 사용할 수 있도록 할 계획입니다. 직원은 VPC에 연결된 클라이언트 VPN 서비스를 통해 연결하여 시스템에 액세스합니다. 데이터는 대중이 접근할 수 없어야 합니다. 회사가 저장하고 있는 문서는 다른 곳의 물리적 매체에 보관된 데이터의 사본입니다. 요청 수가 적습니다. 가용성과 검색 속도는 회사의 관심사가 아닙니다. 최저 비용으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon S3 버킷을 생성합니다. S3 One Zone-Infrequent Access(S3 One Zone-IA) 스토리지 클래스를 기본값으로 사용하도록 S3 버킷을 구성합니다. 웹 사이트 호스팅을 위해 S3 버킷을 구성합니다. S3 인터페이스 엔드포인트를 생성합니다. 해당 엔드포인트를 통해서만 액세스를 허용하도록 S3 버킷을 구성합니다. B. 웹 서버를 실행하는 Amazon EC2 인스턴스를 시작합니다. Amazon Elastic File System(Amazon EFS) 파일 시스템을 연결하여 보관된 데이터를 EFS One Zone-Infrequent Access(EFS One Zone-IA) 스토리지 클래스에 저장합니다.프라이빗 네트워크에서만 액세스할 수 있도록 인스턴스 보안 그룹을 구성합니다. C. 웹 서버를 실행하는 Amazon EC2 인스턴스를 시작합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨을 연결하여 아카이브된 데이터를 저장합니다. Cold HDD(sc1) 볼륨 유형을 사용합니다. 사설 네트워크에서만 액세스를 허용하도록 인스턴스 보안 그룹을 구성합니다. D. Amazon S3 버킷을 생성합니다. S3 Glacier Deep Archive 스토리지 클래스를 기본값으로 사용하도록 S3 버킷을 구성 합니다. 웹 사이트 호스팅을 위해 버킷을 구성합니다. 인터페이스 S3 엔드포인트를 생성합니다. 해당 S3 엔드포인트를 통해서만 액세스를 허용하도록 S3 버킷을 구성합니다. 한 교육 회사가 전 세계 대학생들이 사용하는 웹 애플리케이션을 운영하고 있습니다. 애플리케이션은 Application Load Balancer(ALB) 뒤에 있는 Auto Scaling 그룹의 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 실행됩니다. 시스템 관리자는 애플리케이션의 인증 서비스를 압도하는 로그인 시도 실패 횟수의 주간 급증을 감지합니다. 실패한 모든 로그인 시도는 매주 변경되는 약 500개의 서로 다른 IP 주소에서 시작됩니다. 솔루션 설계자는 실패한 로그인 시도가 인증 서비스에 부담을 주지 않도록 해야 합니다. 가장 운영 효율성이 높은 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Firewall Manager를 사용하여 IP 주소에서 액세스를 거부하는 보안 그룹 및 보안 그룹 정책을 생성합니다. B. 속도 기반 규칙을 사용하여 AWS WAF 웹 ACL을 생성하고 규칙 작업을 차단으로 설정합니다. 웹 ACL을 ALB에 연결합니다. C. AWS Firewall Manager를 사용하여 특정 CIDR 범위에 대한 액세스만 허용하는 보안 그룹 및 보안 그룹 정책을 생성합니 다. D. IP 세트 일치 규칙을 사용하여 AWS WAF 웹 ACL을 생성하고 규칙 작업을 차단으로 설정합니다. 웹 ACL을 ALB에 연결합니다. 회사에서 고객이 온라인 주문에 사용하는 애플리케이션을 업데이트하고 있습니다. 최근 악성 행위자의 애플리케이션 공격 횟수가 증가했습니다. 회사는 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 업데이트된 애플리케이션을 호스팅합니다. 회사는 Amazon DynamoDB를 사용하여 애플리케이션 데이터를 저장합니다. 공용 Application Load Balancer(ALB)는 최종 사용자에게 애플리케이션에 대한 액세스 권한을 제공합니다. 회사는 공격을 방지하고 공격이 진행되는 동안 최소한의 서비스 중단으로 비즈니스 연속성을 보장해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.). A. ALB를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. CloudFront 도메인에 사용자 지정 헤더와 임의 값 을 추가합니다. 헤더와 값이 일치하는 경우 트래픽을 조건부로 전달하도록 ALB를 구성합니다. B. 두 개의 AWS 리전에 애플리케이션을 배포합니다. 동일한 가중치로 두 리전으로 라우팅하도록 Amazon Route 53을 구성 합니다. C. Amazon ECS 작업에 대한 자동 조정을 구성합니다. DynamoDB Accelerator(DAX) 클러스터를 생성합니다. D. DynamoDB의 오버헤드를 줄이도록 Amazon ElastiCache를 구성합니다. E. 적절한 규칙 그룹을 포함하는 AWS WAF 웹 ACL을 배포합니다. 웹 ACL을 Amazon CloudFront 배포와 연결합니다. 회사는 Redis용 Amazon ElastiCache 클러스터를 캐싱 계층으로 사용하는 애플리케이션을 실행하고 있습니다. 최근 보안 감사에서 회사가 ElastiCache에 대해 저장된 데이터 암호화를 구성한 것으로 나타났습니다. 그러나 회사는 전송 중 암호화를 사용하도록 ElastiCache를 구성하지 않았습니다. 또한 사용자는 인증 없이 캐시에 액세스할 수 있습니다. 솔루션 설계자는 사용자 인증을 요구하고 회사가 End-To-End 암호화를 사용하도록 변경해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AUTH 토큰을 생성합니다. 토큰을 AWS System Manager Parameter Store에 암호화된 매개변수로 저장합니다. AUTH로 새 클러스터를 만들고 전송 중 암호화를 구성합니다. 필요한 경우 Parameter Store에서 AUTH 토큰을 검색하고 인증에 AUTH 토큰을 사용하도록 애플리케이션을 업데이트합니다. B. AUTH 토큰을 생성합니다. AWS Secrets Manager에 토큰을 저장합니다. AUTH 토큰을 사용하도록 기존 클러스터를 구성하고 전송 중 암호화를 구성합니다. 필요한 경우 Secrets Manager에서 AUTH 토큰을 검색하고 인증에 AUTH 토큰을 사용하도록 애플리케이션을 업데이트합니다. C. SSL 인증서를 생성합니다. AWS Secrets Manager에 인증서를 저장합니다. 새 클러스터를 만들고 전송 중 암호화를 구성합니다. 필요한 경우 Secrets Manager에서 SSL 인증서를 검색하고 인증에 인증서를 사용하도록 애플리케이션을 업데이트합니다. D. SSL인증서를 생성합니다. 인증서를 암호화된 고급 파라미터로 AWS Systems Manager Parameter Store에 저장합니다. 기존 클러스터를 업데이트하여 전송 중 암호화를 구성합니다. 필요한 경우 Parameter Store에서 SSL 인증서를 검색하고 인증에 인증서를 사용하도록 애플리케이션을 업데이트합니다. AWS 계정이 여러 개인 회사에서 AWS Organizations를 사용하고 있습니다. 회사의 AWS 계정은 VPC, Amazon EC2 인스턴스 및 컨테이너를 호스팅합니다. 회사의 규정 준수 팀은 회사가 배포한 각 VPC에 보안 도구를 배포했습니다. 보안 도구는 EC2 인스턴스에서 실행되며 규정 준수 팀 전용 AWS 계정으로 정보를 보냅니다. 회사는 모든 규정 준수 관련 리소스에 "costCenter" 키와 "규정 준수" 값을 태그로 지정했습니다. 회사는 규정 준수 팀의 AWS 계정에 비용을 청구할 수 있도록 EC2 인스턴스에서 실행되는 보안 도구의 비용을 식별하려고 합니다. 비용 계산은 가능한 한 정확해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. 조직의 마스터 계정에서 costCenter 사용자 정의 태그를 활성화합니다. 월별 AWS 비용 및 사용 보고서를 구성하여 마스터 계정의 Amazon S3 버킷에 저장합니다. 보고서의 태그 분류를 사용하여 costCenter 태그가 지정된 리소스에 대한 총 비용을 얻으십시오. B. 조직의 구성원 계정에서 costCenter 사용자 정의 태그를 활성화합니다. 월별 AWS 비용 및 사용 보고서를 구성하여 마스터 계정의 Amazon S3 버킷에 저장합니다. 월 별 AWS Lambda 함수를 예약하여 보고서를 검색하고 costCenter 태그가 지정된 리소스의 총 비용을 계산합니다. C. 조직의 구성원 계정에서 costCenter 사용자 정의 태그를 활성화합니다. 마스터 계정에서 월별 AWS 비용 및 사용 보고서를 예약합니다. 보고서의 태그 분석을 사용하여 costCenter 태그가 지정된 리소스의 총 비용을 계산합니다. D. AWS Trusted Advisor의 조직 보기에서 사용자 지정 보고서를 생성합니다. 규정 준수 팀의 AWS 계정에서 costCenter 태그가 지정된 리소스에 대한 월 별 청구 요약을 생성하도록 보고서를 구성합니다. 소매 회사는 여러 AWS 리전에 걸쳐 AWS에서 전자 상거래 웹 사이트를 호스팅하고 있습니다. 회사는 온라인 구매를 위해 웹 사이트가 항상 작동하기를 원합니다. 웹 사이트는 MySQL DB 인스턴스용 Amazon RDS에 데이터를 저장합니다. 데이터베이스에 가장 높은 가용성을 제공하는 솔루션은 무엇입니까?. A. Amazon RDS에서 자동 백업을 구성합니다. 중단 시 자동 백업을 독립 실행형 DB 인스턴스로 승격합니다. 데이터베이스 트래픽을 승격된 DB 인스턴스로 보냅니다. 승격된 DB 인스턴스를 원본으로 하는 대체 읽기 전용 복제본을 생성합니다. B. Amazon RDS에서 전역 테이블 및 읽기 전용 복제본을 구성합니다. 리전 간 범위를 활성화합니다. 중단된 경우 AWS Lambda를 사용하여 한 리전에서 다른 리전으로 읽기 전용 복제본을 복사하십시오. C. Amazon RDS에서 전역 테이블 및 자동 백업을 구성합니다. 중단된 경우 AWS Lambda를 사용하여 한 리전에서 다른 리전으로 읽기 전용 복제본을 복사하십시오. D. Amazon RDS에서 읽기 전용 복제본을 구성합니다. 중단의 경우 리전 간 및 읽기 전용 복제본을 독립 실행형 DB 인스턴스로 승격합니다. 데이터베이스 트래픽을 승격된 DB 인스턴스로 보냅니다. 승격된 DB 인스턴스를 원본으로 하는 대체 읽기 전용 복제본을 생성합니다. 회사는 VPC에 연결된 AWS Lambda 함수에서 실행되는 서버리스 애플리케이션을 구축하고 있습니다. 회사는 애플리케이션을 외부 공급자의 새로운 서비스와 통합해야 합니다. 외부 공급자는 허용 목록에 있는 퍼블릭 IPv4 주소에서 오는 요청만 지원합니다. 회사는 애플리케이션이 새 서비스를 사용하기 전에 외부 공급자에게 단일 공용 IP 주소를 제공해야 합니다. 애플리케이션이 새 서비스에 액세스할 수 있는 기능을 제공하는 솔루션은 무엇입니까?. A. NAT 게이트웨이를 배포합니다. 탄력적 IP 주소를 NAT 게이트웨이와 연결합니다. NAT 게이트웨이를 사용하도록 VPC를구성합니다. B. 외부 전용 인터넷 게이트웨이를 배포합니다. 탄력적 IP 주소를 외부 전용 인터넷 게이트웨이와 연결합니다. 외부 전용 인터넷 게이트웨이를 사용하도록 Lambda 함수에서 탄력적 네트워크 인터페이스를 구성합니다. C. 인터넷 게이트웨이를 배포합니다. 탄력적 IP 주소를 인터넷 게이트웨이와 연결합니다. 인터넷 게이트웨이를 사용하도록 Lambda 함수를 구성합니다. D. 인터넷 게이트웨이를 배포합니다. 탄력적 IP 주소를 인터넷 게이트웨이와 연결합니다. 퍼블릭 VPC 라우팅 테이블에서 인터넷 게이트웨이를 사용하도록 기본 라우팅을 구성합니다. 한 회사에서 AWS Organizations를 사용하여 1,000개가 넘는 AWS 계정을 관리합니다. 회사에서 새로운 개발자 조직을 만들었습니다. 새 개발자 조직으로 이동해야 하는 개발자 구성원 계정이 540개 있습니다. 모든 계정은 각 계정이 독립형 계정으로 운영될 수 있도록 필요한 모든 정보로 설정됩니다. 모든 개발자 계정을 새 개발자 조직으로 이동하기 위해 솔루션 설계자가 수행해야 하는 단계의 조합은 무엇입니까? (3개를 선택하세요.). A. 이전 조직의 마스터 계정에서 조직 API의 MoveAccount 작업을 호출하여 개발자 계정을 새 개발자 조직으로 마이그레이션합니다. B. 마스터 계정에서 조직 API의 RemoveAccountFromOrganization 작업을 사용하여 이전 조직에서 각 개발자 계정을 제거합니다. C. 각 개발자 계정에서 조직 API의 RemoveAccountFromOrganization 작업을 사용하여 이전 조직에서 계정을 제거합니다. D. 새 개발자 조직의 마스터 계정에 로그인하고 개발자 계정 마이그레이션의 대상 역할을 하는 자리 표시자 회원 계정을 생성합니다. E. 새 개발자 조직의 마스터 계정에서 조직 API의 InviteAccountToOrganization 작업을 호출하여 개발자 계정에 초대를 보냅니다. F. 각 개발자가 자신의 계정에 로그인하고 새 개발자 조직에 가입하도록 확인합니다. 회사에 Amazon CloudFront, Amazon API Gateway 및 AWS Lambda 기능으로 구성된 서버리스 애플리케이션이 있습니다. 애플리케이션 코드의 현재 배포 프로세스는 Lambda 함수의 새 버전 번호를 생성하고 AWS CLI 스크립트를 실행하여 업데이트하는 것입니다. 새 함수 버전에 오류가 있는 경우 다른 CLI 스크립트는 함수의 이전 작업 버전을 배포하여 되돌립니다. 회사는 Lambda 함수에서 제공하는 애플리케이션 로직의 새 버전을 배포하는 시간을 줄이고 오류가 식별되었을 때 이를 감지하고 되돌리는 시간도 줄이고자 합니다. 이것이 어떻게 이루어질 수 있습니까?. A. AWS CloudFront 배포 및 API Gateway로 구성된 상위 스택과 Lambda 함수를 포함하는 하위 스택으로 중첩된 AWS CloudFormation 스택을 생성하고 배포합니다. Lambda를 변경하려면 AWS CloudFormation 변경 세트를 생성하고 배포하십시오. 오류가 트리거되면 AWS CloudFormation 변경 세트를 이전 버전으로 되돌립니다. B. AWS SAM 및 내장 AWS CodeDeploy를 사용하여 새 Lambda 버전을 배포하고 트래픽을 새 버전으로 점진적으로 이동하고 트래픽 전 및 트래픽 후 테스트 기능을 사용하여 코드를 확인합니다. Amazon CloudWatch 경보가 트리거되면 롤백 합니다. C. AWS CLI 스크립트를 새 Lambda 버전을 배포하는 단일 스크립트로 리팩터링합니다. 배포가 완료되면 스크립트 테스트가 실행됩니다. 오류가 감지되면 이전 Lambda 버전으로 되돌립니다. D. 새 Lambda 버전을 참조하는 새 API 게이트웨이 엔드포인트로 구성된 AWS CloudFormation 스택을 생성하고 배포합니다. CloudFront 오리진을 새 API 게이트웨이 엔드포인트로 변경하고 오류를 모니터링하며 감지된 경우 AWS CloudFront 오리진을 이전 API 게이트웨이 엔드포인트로 변경합니다. 회사는 AWS 클라우드에서 다중 계정 설정을 위해 AWS Organizations를 사용합니다. 이 회사는 거버넌스를 위해 AWS Control Tower를 사용하고 계정 간 VPC 연결을 위해 AWS Transit Gateway를 사용합니다. AWS 애플리케이션 계정에서 회사의 애플리케이션 팀은 AWS Lambda 및 Amazon RDS를 사용하는 웹 애플리케이션을 배포했습니다. 회사의 데이터베이스 관리자는 별도의 DBA 계정을 가지고 있으며 이 계정을 사용하여 조직 전체의 모든 데이터베이스를 중앙에서 관리합니다. 데이터베이스 관리자는 DBA 계정에 배포된 Amazon EC2 인스턴스를 사용하여 애플리케이션 계정에 배포된 RDS 데이터베이스에 액세스합니다. 애플리케이션 팀은 데이터베이스 자격 증명을 애플리케이션 계정의 AWS Secrets Manager에 비밀로 저장했습니다. 애플리케이션 팀은 비밀을 데이터베이스 관리자와 수동으로 공유하고 있습니다. 비밀은 애플리케이션 계정의 Secrets Manager에 대한 기본 AWS 관리형 키로 암호화됩니다. 솔루션 설계자는 데이터베이스 관리자에게 데이터베이스에 대한 액세스 권한을 부여하고 암호를 수동으로 공유할 필요가 없도록 하는 솔루션을 구현해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS RAM(AWS Resource Access Manager)을 사용하여 애플리케이션 계정의 암호를 DBA 계정과 공유합니다. DBA 계정에서 DBA-Admin이라는 IAM 역할을 생성합니다. 공유 암호에 액세스하는 데 필요한 권한을 역할에 부여합니다. 교차 계정 암호에 액세스하려면 DBA-Admin 역할을 EC2 인스턴스에 연결합니다. B. 애플리케이션 계정에서 DBA-Secret이라는 IAM 역할을 생성합니다. 암호에 액세스하는 데 필요한 권한을 역할에 부여합니다. DBA 계정에서 DBA-Admin이라는 IAM 역할을 생성합니다. 애플리케이션 계정에서 DBA-Secret 역할을 맡는 데 필요한 권한을 DBA-Admin 역할에 부여합니다. 교차 계정 암호에 액세스하기 위해 DBA-Admin 역할을 EC2 인스턴스에 연결. C. DBA 계정에서 DBA-Admin이라는 IAM 역할을 생성합니다. 애플리케이션 계정의 암호 및 기본 AWS 관리형 키에 액세스 하는 데 필요한 권한을 역할에 부여합니다. 애플리케이션 계정에서 리소스 기반 정책을 키에 연결하여 DBA 계정의 액세스를 허용합니다. 교차 계정 암호에 액세스하려면 DBA-Admin 역할을 EC2 인스턴스에 연결합니다. D. DBA 계정에서 DBA-Admin이라는 IAM 역할을 생성합니다. 애플리케이션 계정의 암호에 액세스하는 데 필요한 권한을 역할에 부여합니다. DBA 계정에서 암호에 액세스할 수 있도록 애플리케이션 계정에 SCP를 연결합니다. 교차 계정 암호에 액세스 하려면 DBA-Admin 역할을 EC2 인스턴스에 연결합니다. 회사는 중앙 위치에서 여러 부서의 여러 AWS 계정을 만들고 관리해야 합니다. 보안 팀은 자체 AWS 계정의 모든 계정에 대한 읽기 전용 액세스 권한이 필요합니다. 이 회사는 AWS Organizations를 사용하고 있으며 보안 팀을 위한 계정을 생성했습니다. 솔루션 설계자는 이러한 요구 사항을 어떻게 충족해야 합니까?. A. OrganizationAccountAccessRole IAM 역할을 사용하여 각 멤버 계정에서 읽기 전용 액세스 권한이 있는 새 IAM 정책을 만듭니다. 각 멤버 계정의 IAM 정책과 보안 계정 간에 신뢰 관계를 설정합니다. 액세스 권한을 얻기 위해 IAM 정책을 사용 하도록 보안 팀에 요청하십시오. B. OrganizationAccountAccessRole IAM 역할을 사용하여 각 멤버 계정에서 읽기 전용 액세스 권한이 있는 새 IAM 역할을 생성합니다. 각 멤버 계정의 IAM 역할과 보안 계정 간에 신뢰 관계를 설정합니다. 액세스 권한을 얻기 위해 IAM 역할을 사용하도록 보안 팀에 요청하십시오. C. 보안 팀에 AWS Security Token Service(AWS STS)를 사용하여 보안 계정에서 마스터 계정의 OrganizationAccountAccessRole IAM 역할에 대한 AssumeRole API를 호출하도록 요청합니다. 생성된 임시 자격 증명을 사용하여 액세스 권한을 얻습니다. D. 보안 팀에 AWS Security Token Service(AWS STS)를 사용하여 보안 계정에서 멤버 계정의 OrganizationAccountAccessRole IAM 역할에 대한 AssumeRole API를 호출하도록 요청합니다. 생성된 임시 자격 증명을 사용하여 액세스 권한을 얻습니다. 회사에서 AWS CodeCommit 리포지토리를 사용합니다. 회사는 두 번째 AWS 리전의 리포지토리에 있는 데이터의 백업 복사본을 저장해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. CodeCommit 리포지토리 데이터를 두 번째 리전에 복제하도록 AWS Elastic Disaster Recovery를 구성합니다. B. AWS Backup을 사용하여 매시간 일정에 따라 CodeCommit 리포지토리를 백업합니다. 두 번째 리전에서 리전 간 복사본을 생성합니다. C. 회사가 코드를 리포지토리에 푸시할 때 AWS CodeBuild를 호출하는 Amazon EventBridge 규칙을 생성합니다. CodeBuild를 사용하여 리포지토리를 복제합니다. 콘텐츠의 .zip 파일을 만듭니다. 두 번째 리전의 S3 버킷에 파일을 복사합니다. D. 시간별 일정에 따라 AWS Step Functions 워크플로를 생성하여 CodeCommit 리포지토리의 스냅샷을 생성합니다. 두 번 째 리전의 S3 버킷에 스냅샷을 복사하도록 워크플로 구성합니다. 회사에서 AWS로 마이그레이션하려고 합니다. 이 회사는 VMware ESXi 환경에서 수천 개의 VM을 실행하고 있습니다. 이 회사는 구성 관리 데이터베이스가 없으며 VMware 포트폴리오 활용에 대한 지식이 거의 없습니다. 솔루션 설계자는 회사가 비용 효율적인 마이그레이션을 계획할 수 있도록 회사에 정확한 인벤토리를 제공해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Systems Manager Patch Manager를 사용하여 Migration Evaluator를 각 VM에 배포합니다. Amazon QuickSight에서 수집된 데이터를 검토합니다. 사용률이 높은 서버를 식별합니다. 마이그레이션 목록에서 사용률이 높은 서버를 제거합니다. 데이터를 AWS Migration Hub로 가져옵니다. B. VMware 포트폴리오를 .csv 파일로 내보냅니다. 각 서버의 디스크 사용률을 확인하십시오. 사용률이 높은 서버를 제거합니다. 데이터를 AWS Application Migration Service로 내보냅니다. AWS Server Migration Service(AWS SMS)를 사용하여 나머지 서버를 마이그레이션합니다. C. Migration Evaluator 에이전트 없는 수집기를 ESXi 하이퍼바이저에 배포합니다. Migration Evaluator에서 수집된 데이터를 검토합니다. 비활성 서버를 식별합니다. 마이그레이션 목록에서 비활성 서버를 제거하십시오. 데이터를 AWS Migration Hub로 가져옵니다. D. 각 VM에 AWS Application Migration Service 에이전트를 배포합니다. 데이터가 수집되면 Amazon Redshift를 사용하여 데이터를 가져와 분석합니다. 데이터 시각화를 위해 Amazon QuickSight를 사용하십시오. 회사가 AWS 클라우드에서 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 Amazon S3 버킷에 대량의 비정형 데이터를 수집하고 저장합니다. S3 버킷에는 수 테라바이트의 데이터가 포함되어 있으며 S3 Standard 스토리지 클래스를 사용합니다. 데이터의 크기는 매일 몇 기가바이트씩 증가합니다. 회사는 데이터를 쿼리하고 분석해야 합니다. 회사는 1년이 지난 데이터에 접근하지 않습니다. 그러나 회사는 규정 준수를 위해 모든 데이터를 무기한 보관해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. S3 Select를 사용하여 데이터를 쿼리합니다. S3 수명 주기 정책을 생성하여 1년 이상 된 데이터를 S3 Glacier Deep Archive로 전환합니다. B. Amazon Redshift Spectrum을 사용하여 데이터를 쿼리합니다. S3 수명 주기 정책을 생성하여 1년 이상 된 데이터를 전환합니다. 10 S3 Glacier Deep Archive. C. AWS Glue 데이터 카탈로그 및 Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 수명 주기 정책을 생성하여 1년 이상 된 데이터를 S3 Glacier Deep Archive로 전환합니다. D. Amazon Redshift Spectrum을 사용하여 데이터를 쿼리합니다. S3 수명 주기 정책을 생성하여 1년 이상 된 데이터를 S3 Intelligent-Tiering으로 전환합니다. 회사에서 다중 계층 웹 애플리케이션을 컨테이너화하고 애플리케이션을 온프레미스 데이터 센터에서 AWS로 이동하려고 합니다. 응용 프로그램에는 웹이 포함됩니다. 애플리케이션 및 데이터베이스 계층. 회사는 응용 프로그램이 내결함성과 확장성을 갖도록 해야 합니다. 자주 액세스하는 일부 데이터는 애플리케이션 서버에서 항상 사용할 수 있어야 합니다. 프런트엔드 웹 서버에는 세션 지속성이 필요하며 트래픽 증가에 맞춰 확장해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Fargate의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 실행합니다. 웹과 애플리케이션 계층 간에 자주 액세스되는 데이터에 Amazon Elastic File System(Amazon EFS)을 사용합니다. 프런트엔드 웹 서버 세션 데이터를 Amazon Simple Queue Service(Amazon SQS)에 저장합니다. B. Amazon EC2의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 실행합니다. Redis용 Amazon ElastiCache를 사용하여 프런트엔드 웹 서버 세션 데이터를 캐시합니다. 여러 가용 영역에 분산된 EC2 인스턴스에서 다중 연결과 함께 Amazon Elastic Block Store(Amazon EBS)를 사용합니다. C. Amazon Elastic Kubernetes Service(Amazon EKS)에서 애플리케이션을 실행합니다. 관리형 노드 그룹을 사용하도록 Amazon EKS를 구성합니다. ReplicaSet를 사용하여 웹 서버 및 애플리케이션을 실행합니다. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 모든 EKS 포드에 EFS 파일 시스템을 마운트하여 프런트엔드 웹 서버 세션 데이터를 저장합니다. D. Amazon Elastic Kubernetes Service(Amazon EKS)에 애플리케이션을 배포합니다. 관리형 노드 그룹을 사용하도록 Amazon EKS를 구성합니다. EKS 클러스터에서 Kubernetes 배포로 웹 서버 및 애플리케이션을 실행합니다. 프런트엔드 웹 서버 세션 데이터를 Amazon DynamoDB 테이블에 저장합니다. 배포 시 모든 애플리케이션이 탑재될 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. 회사는 AWS 클라우드에서 처리 엔진을 실행합니다. 엔진은 물류 센터의 환경 데이터를 처리하여 지속 가능성 지수를 계산합니다. 이 회사는 유럽 전역에 퍼져 있는 물류 센터에 수백만 대의 장치를 보유하고 있습니다. 장치는 RESTful API를 통해 처리 엔진에 정보를 보냅니다. API는 예측할 수 없는 트래픽 폭증을 경험합니다. 회사는 장치가 처리 엔진으로 보내는 모든 데이터를 처리하는 솔루션을 구현해야 합니다. 데이터 손실은 허용되지 않습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. RESTful API용 Application Load Balancer(ALB)를 생성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. ALB에 대한 리스너 및 대상 그룹 생성 SQS 대기열을 대상으로 추가합니다. Fargate 시작 유형으로 Amazon Elastic Container Service(Amazon ECS)에서 실행되는 컨테이너를 사용하여 대기열의 메시지를 처리합니다. B. RESTful API를 구현하는 Amazon API Gateway HTTP API를 생성합니다. Amazon Simple Queue Service (Amazon SQS) 대기열을 생성합니다. SQS 대기열과 API 게이트웨이 서비스 통합을 생성합니다. SQS 대기열의 메시지를 처리하는 AWS Lambda 함수를 생성합니다. C. RESTful API를 구현하는 Amazon API Gateway REST API를 생성합니다. Auto Scaling 그룹에서 Amazon EC2 인스턴스 플릿을 생성합니다. API Gateway Auto Scaling 그룹 프록시 통합을 생성합니다. EC2 인스턴스를 사용하여 수신 데이터를 처리합니다. D. RESTful API용 Amazon CloudFront 배포를 생성합니다. Amazon Kinesis Data Streams에서 데이터 스트림을 생성합니다. 데이터 스트림을 배포 원본으로 설정합니다. 데이터 스트림에서 데이터를 소비하고 처리하는 AWS Lambda 함수를 생성합니다. 미디어 스토리지 애플리케이션은 AWS Lambda 기능으로 처리하기 위해 사용자 사진을 Amazon S3에 업로드합니다. 애플리케이션 상태는 Amazon DynamoDB 테이블에 저장됩니다. 일부 업로드된 사진이 제대로 처리되지 않는다는 사용자의 보고가 있습니다. 애플리케이션 개발자는 로그를 추적하고 수천 명의 사용자가 동시에 사진을 업로드할 때 Lambda가 사진 처리 문제를 겪고 있음을 발견합니다. 문제는 데이터 저장 시 Lambda 동시성 제한 및 DynamoDB 성능의 결과입니다. 애플리케이션의 성능과 안정성을 높이기 위해 솔루션 설계자가 취해야 하는 작업 조합은 무엇입니까? (두 가지를 선택하세요.). A. DynamoDB 테이블에 대한 RCU를 평가하고 조정합니다. B. DynamoDB 테이블에 대한 WCU를 평가하고 조정합니다. C. Amazon ElastiCache 계층을 추가하여 Lambda 함수의 성능을 높입니다. D. Amazon S3와 Lambda 함수 사이에 Amazon Simple Queue Service(Amazon SQS) 대기열 및 재처리 로직을 추가합니다. E. S3 Transfer Acceleration을 사용하여 사용자에게 더 짧은 지연 시간을 제공합니다. 회사는 온프레미스에서 호스팅하는 애플리케이션에서 메타데이터를 수집하기 위해 서비스를 사용합니다. TV 및 인터넷 라디오와 같은 소비자 장치는 애플리케이션에 액세스합니다. 많은 구형 장치는 특정 HTTP 헤더를 지원하지 않으며 이러한 헤더가 응답에 있을 때 오류를 표시합니다. 회사는 회사가 User-Agent 헤더로 식별한 이전 장치로 전송된 응답에서 지원되지 않는 헤더를 제거하도록 온프레미스 로드 밸런서를 구성했습니다. 회사는 서비스를 AWS로 마이그레이션하고 서버리스 기술을 채택하고 이전 장치를 지원할 수 있는 기능을 유지하려고 합니다. 회사는 이미 애플리케이션을 AWS Lambda 함수 세트로 마이그레이션했습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 메타데이터 서비스를 위한 Amazon CloudFront 배포를 생성합니다. Application Load Balancer(ALB)를 생성합니다. 요청을 ALB로 전달하도록 CloudFront 배포를 구성합니다. 각 요청 유형에 대해 올바른 Lambda 함수를 호출하도록 ALB를 구성합니다. User-Agent 헤더의 값을 기반으로 문제가 있는 헤더를 제거하는 CloudFront 함수를 생성합니다. B. 메타데이터 서비스에 대한 Amazon API Gateway REST API를 생성합니다. 각 요청 유형에 대해 올바른 Lambda 함수를 호출하도록 API Gateway를 구성합니다. User-Agent 헤더의 값을 기반으로 문제가 있는 헤더를 제거하도록 기본 게이트웨이 응답을 수정합니다. C. 메타데이터 서비스에 대한 Amazon API Gateway HTTP API를 생성합니다. 각 요청 유형에 대해 올바른 Lambda 함수를 호출하도록 API Gateway를 구성합니다. User-Agent의 값을 기반으로 문제가 있는 헤더를 제거하는 응답 매핑 템플릿을 만듭니다. 응답 데이터 매핑을 HTTP API와 연결합니다. D. 메타데이터 서비스에 대한 Amazon CloudFront 배포를 생성합니다. Application Load Balancer(ALB)를 생성합니다. 요청을 ALB로 전달하도록 CloudFront 배포를 구성합니다. 각 요청 유형에 대해 올바른 Lambda 함수를 호출하도록 ALB를 구성합니다. User-Agent 헤더 값을 기반으로 최종 사용자 요청에 대한 응답으로 문제가 있는 헤더를 제거하는 Lambda@Edge 함수를 생성합니다 . 회사는 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 AWS Cloud에서 비디오를 처리하고 있습니다. 비디오를 처리하는 데 30분이 소요됩니다. Amazon Simple Queue Service(Amazon SQS) 대기열의 비디오 수에 따라 여러 EC2 인스턴스가 확장 및 축소됩니다. 회사는 대상 배달 못한 편지 대기열과 maxReceiveCount를 1로 지정하는 리드라이브 정책으로 SQS 대기열을 구성했습니다.회사는 SQS 대기열에 대한 가시성 제한 시간을 1시간으로 설정했습니다. 이 회사는 배달 못한 편지 대기열에 메시지가 있을 때 개발 팀에 알리도록 Amazon CloudWatch 경보를 설정했습니다. 하루 동안 여러 번. 개발 팀은 메시지가 배달 못한 편지 대기열에 있고 비디오가 처리되지 않았다는 알림을 받습니다. 조사 결과 애플리케이션 로그에서 오류가 발견되지 않았습니다. 회사는 이 문제를 어떻게 해결할 수 있습니까?. A. EC2 인스턴스에 대한 종료 방지 기능을 켭니다. B. SQS 대기열의 가시성 제한 시간을 3시간으로 업데이트합니다. C. 처리 중 인스턴스에 대한 축소 보호 구성합니다. D. 리드라이브 정책을 업데이트하고 maxReceiveCount를 0으로 설정합니다. 회사는 하이브리드 DNS 솔루션을 설계해야 합니다. 이 솔루션은 VPC 내에 저장된 리소스에 대해 도메인 cloud.example.com 에 Amazon Route 53 프라이빗 호스팅 영역을 사용합니다. 회사에는 다음과 같은 DNS 확인 요구 사항이 있습니다.온프레미스 시스템은 cloud.example.com을 확인하고 연결할 수 있어야 합니다.모든 VPC는 cloud.example.com을 확인할 수 있어야 합니다. 온프레미스 회사 네트워크와 AWS Transit Gateway 사이에 이미 AWS Direct Connect 연결이 있습니다. 회사는 최고의 성능으로 이러한 요구 사항을 충족하기 위해 어떤 아키텍처를 사용해야 합니까?. A. 프라이빗 호스팅 영역을 모든 VPC에 연결합니다. 공유 서비스 VPC에서 Route 53 인바운드 해석기를 생성합니다. 모든 VPC를 전송 게이트웨이에 연결하고 인바운드 해석기를 가리키는 cloud.example.com에 대한 온프레미스 DNS 서버에서 전달 규칙을 생성합니다. B. 프라이빗 호스팅 영역을 모든 VPC에 연결합니다. 공유 서비스 VPC에 Amazon EC2 조건부 전달자를 배포합니다. 모든 VPC를 transit gateway에 연결하고 조건부 전달자를 가리키는 cloud.example.com에 대한 온프레미스 DNS 서버에서 전달 규칙을 생성합니다. C. 프라이빗 호스팅 영역을 공유 서비스 VPC에 연결 공유 서비스 VPA에서 Route 53 아웃바운드 확인자 생성모든 VPC를 전송 게이트웨이에 연결하고 온프레미스 DNS 서버에서 아웃바운드를 가리키는 cloud.example.com용 전달 규칙 생성 리졸버. D. 프라이빗 호스팅 영역을 공유 서비스 VPC에 연결합니다. 공유 서비스 VPC에서 Route 53 인바운드 해석기를 생성합니다. 공유 서비스 VPC를 transit gateway에 연결하고 인바운드 해석기를 가리키는 cloud.example.com에 대한 온프레미스 DNS 서버에서 전달 규칙을 생성합니다. 회사에서 Amazon S3 버킷에 민감한 데이터를 저장하고 있습니다. 회사는 S3 버킷의 객체에 대한 모든 활동을 기록하고 5년 동안 로그를 유지해야 합니다. 또한 회사의 보안 팀은 S3 버킷에서 데이터를 삭제하려는 시도가 있을 때마다 이메일 알림을 받아야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. S3 데이터 이벤트를 기록하도록 AWS CloudTrail을 구성합니다. B. S3 버킷에 대한 S3 서버 액세스 로깅을 구성합니다. C. 객체 삭제 이벤트를 Amazon Simple Email Service(Amazon SES)로 보내도록 Amazon S3를 구성합니다. D. Amazon Simple Notification Service(Amazon SNS) 주제에 게시하는 Amazon EventBridge 이벤트 버스로 객체 삭제 이벤트를 보내도록 Amazon S3를 구성합니다. E. 데이터 스토리지 계층화를 사용하여 로그를 Amazon Timestream으로 보내도록 Amazon S3를 구성합니다. F. S3 수명 주기 정책으로 로그를 저장하도록 새 S3 버킷을 구성합니다. 회사는 매일 여러 파일을 수집하는 온프레미스 SaaS(Software-as-a-Service) 솔루션을 운영합니다. 회사는 파일 전송을 용이 하게 하기 위해 고객에게 여러 공용 SFTP 엔드포인트를 제공합니다. 고객은 SFTP 엔드포인트 IP 주소를 아웃바운드 트래픽에 대한 방화벽 허용 목록에 추가합니다. SFTP 끝점 IP 주소에 대한 변경은 허용되지 않습니다. 회사는 SaaS 솔루션을 AWS로 마이그레이션하고 파일 전송 서비스의 운영 오버헤드를 줄이려고 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 회사의 AWS 계정에 고객 소유의 IP 주소 블록을 등록합니다. 주소 풀에서 탄력적 IP 주소를 생성하고 SFTP용 AWS 전송 엔드포인트에 할당합니다. AWS Transfer를 사용하여 Amazon S3에 파일을 저장합니다. B. 고객 소유의 IP 주소 블록을 포함하는 서브넷을 VPC에 추가합니다. 주소 풀에서 탄력적 IP 주소를 생성하고 Application Load Balancer(ALB)에 할당합니다. 연결된 Amazon Elastic Block Store(Amazon EBS) 볼륨의 파일을 ALStore 뒤에 있는 Auto Scaling 그룹에서 FTP 서비스를 호스팅하는 EC2 인스턴스를 시작합니다. C. 고객 소유의 IP 주소 블록을 Amazon Route 53에 등록합니다. Route 53에서 NLB(Network Load Balancer)를 가리키는 별칭 레코드를 생성합니다. NLB 뒤의 Auto Scaling 그룹에서 FTP 서비스를 호스팅하는 EC2 인스턴스를 시작합니다. 파일을 Amazon S3에 저장합니다. D. 고객 소유의 IP 주소 블록을 회사의 AWS 계정에 등록합니다. 주소 풀에서 탄력적 IP 주소를 생성하고 Amazon S3 VPC 엔드포인트에 할당합니다. S3 버킷에서 SFTP 지원을 활성화합니다. 건강 보험 회사는 Amazon S3 버킷에 개인 식별 정보(PII)를 저장합니다. 회사는 S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용하여 개체를 암호화합니다. 새로운 요구 사항에 따라 S3 버킷의 모든 현재 및 향후 개체는 회사의 보안 팀이 관리하는 키로 암호화되어야 합니다. S3 버킷에 버전 관리가 활성화되어 있지 않습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. S3 버킷 속성에서 고객 관리형 키를 사용하여 기본 암호화를 SSE-S3로 변경합니다. AWS CLI를 사용하여 S3 버킷의 모든 객체를 다시 업로드합니다. 암호화되지 않은 PutObject 요청을 거부하도록 S3 버킷 정책을 설정합니다. B. S3 버킷 속성에서 기본 암호화를 AWS KMS 관리형 암호화 키(SSE-KMS)를 사용한 서버 측 암호화로 변경합니다. 암호화 되지 않은 PutObject 요청을 거부하도록 S3 버킷 정책을 설정합니다. AWS CLI를 사용하여 S3 버킷의 모든 객체를 다시 업로드합니다. C. S3 버킷 속성에서 기본 암호화를 AWS KMS 관리형 암호화 키(SSE-KMS)를 사용하는 서버 측 암호화로 변경합니다. GetObject 및 PutObject 요청에서 객체를 자동으로 암호화하도록 S3 버킷 정책을 설정합니다. D. S3 버킷 속성에서 고객 관리 키를 사용하여 기본 암호화를 AES-256으로 변경합니다. S3 버킷에 액세스하는 모든 엔터티에 대한 암호화되지 않은 PutObject 요청을 거부하는 정책을 연결합니다. AWS CLI를 사용하여 S3 버킷의 모든 객체를 다시 업로드합니다. 솔루션 설계자는 회사가 온프레미스에서 호스팅하는 3계층 애플리케이션을 재설계하고 있습니다. 이 응용 프로그램은 사용자 프로필을 기반으로 개인화 된 권장 사항을 제공합니다. 회사에는 이미 AWS 계정이 있으며 애플리케이션을 호스팅하도록 VPC를 구성했습니다. 프런트엔드는 온프레미스 VM에서 실행되는 Java 기반 애플리케이션입니다. 회사는 물리적 애플리케이션 서버에서 개인화 모델을 호스팅하고 TensorFlow를 사용하여 모델을 구현합니다. 개인화 모델은 인공 지능 및 기계 학습(AI/ML)을 사용합니다. 회사는 사용자 정보를 Microsoft SQL Server 데이터베이스에 저장합니다. 웹 애플리케이션은 데이터베이스에서 사용자 프로필을 읽고 권장 사항을 제공하는 개인화 모델을 호출합니다. 회사는 재설계된 애플리케이션을 AWS로 마이그레이션하려고 합니다. 최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Server Migration Service(AWS SMS)를 사용하여 온프레미스 물리적 애플리케이션 서버와 웹 애플리케이션 VM을 AWS로 마이그레이션합니다. AWS Database Migration Service(AWS DMS)를 사용하여 SQL Server 데이터베이스를 SQL Server용 Amazon RDS로 마이그레이션합니다. B. 개인화 모델을 내보냅니다. 모델 아티팩트를 Amazon S3에 저장합니다. 모델을 Amazon SageMaker에 배포하고 엔드포인트를 생성합니다. AWS Elastic Beanstalk에서 Java 애플리케이션을 호스팅합니다. AWS Database Migration Service(AWS DMS)를 사용하여 SQL Server 데이터베이스를 SQL Server용 Amazon RDS로 마이그레이션합니다. C. AWS Application Migration Service를 사용하여 온프레미스 개인화 모델 및 VM을 Auto Scaling 그룹의 Amazon EC2 인스턴스로 마이그레이션합니다. AWS Database Migration Service(AWS DMS)를 사용하여 SQL Server 데이터베이스를 EC2 인스턴스로 마이그레이션합니다. D. 개인화 모델 및 Java 애플리케이션을 컨테이너화합니다. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹을 사용하여 모델 및 애플리케이션을 Amazon EKS에 배포합니다. VPC에서 노드 그룹을 호스팅합니다. AWS Database Migration Service(AWS DMS)를 사용하여 SQL Server 데이터베이스를 SQL Server용 Amazon RDS로 마이그레이션합니다. 회사는 많은 AWS 계정을 보유하고 있으며 AWS Organizations를 사용하여 모든 계정을 관리합니다. 솔루션 설계자는 회사가 여러 계정에서 공통 네트워크를 공유하는 데 사용할 수 있는 솔루션을 구현해야 합니다. 회사의 인프라 팀에는 VPC가 있는 전용 인프라 계정이 있습니다. 인프라 팀은 이 계정을 사용하여 네트워크를 관리해야 합니다. 개별 계정은 자신의 네트워크를 관리할 수 없습니다. 그러나 개별 계정은 서브넷 내에서 AWS 리소스를 생성할 수 있어야 합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자가 수행해야 하는 작업 조합은 무엇입니까? (두 가지를 선택하세요.). A. 인프라 계정에서 전송 게이트웨이를 생성합니다. B. AWS Organizations 마스터 계정에서 리소스 공유를 활성화합니다. C. AWS Organizations에서 조직 내의 각 AWS 계정에 VPC를 생성합니다. 인프라 계정의 VPC와 동일한 CIDR 범위 및 서브넷을 공유하도록 VPC를 구성합니다. 각 개별 계정의 VPC를 인프라 계정의 VPC와 피어링합니다. D. 인프라 계정의 AWS Resource Access Manager에서 리소스 공유를 생성합니다. 공유 네트워크를 사용할 특정 AWS Organizations OU를 선택합니다. 리소스 공유와 연결할 각 서브넷을 선택합니다. E. 인프라 계정의 AWS Resource Access Manager에서 리소스 공유를 생성합니다. 공유 네트워크를 사용할 특정 AWS Organizations OU를 선택합니다. 리소스 공유와 연결할 각 접두사 목록을 선택합니다. 한 회사에서 리전 엔드포인트와 함께 Amazon API Gateway를 사용하는 API를 개발했습니다. API는 API Gateway 인증 메커니즘을 사용하는 AWS Lambda 함수를 호출합니다. 설계 검토 후 솔루션 설계자는 공용 액세스가 필요하지 않은 API 세트를 식별합니다. 솔루션 설계자는 VPC에서만 API 세트에 액세스할 수 있도록 솔루션을 설계해야 합니다. 모든 API는 인증된 사용자로 호출해야 합니다. 최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 내부 Application Load Balancer(ALB)를 생성합니다. 대상 그룹을 만듭니다. 호출할 Lambda 함수를 선택합니다. ALB DNS 이름을 사용하여 VPC에서 API를 호출합니다. B. API Gateway에서 API와 연결된 DNS 항목을 제거합니다. Amazon Route 53에서 호스팅 영역을 생성합니다. 호스팅 영역에서 CNAME 레코드를 생성합니다. CNAME 레코드로 API Gateway에서 API를 업데이트합니다. CNAME 레코드를 사용하여 VPC에서 API를 호출합니다. C. API 게이트웨이에서 리전에서 프라이빗으로 API 엔드포인트를 업데이트합니다. VPC에서 인터페이스 VPC 엔드포인트 생성 리소스 정책을 생성하고 API에 연결합니다. VPC 엔드포인트를 사용하여 VPC에서 API를 호출합니다. D. VPC 내부에 Lambda 함수 배포 EC2 인스턴스를 프로비저닝하고 Apache 서버를 설치합니다. Apache 서버에서 Lambda 함수를 호출합니다. EC2 인스턴스의 내부 CNAME 레코드를 사용하여 VPC에서 API를 호출합니다. 회사에는 Application Load Balancer(ALB) 뒤에 있는 인스턴스 Amazon EC2 플릿에서 실행되는 다중 계층 웹 애플리케이션이 있습니다. 인스턴스는 Auto Scaling 그룹에 있습니다. ALB 및 Auto Scaling 그룹은 백업 AWS 리전에서 복제됩니다. Auto Scaling 그룹의 최소값과 최대값은 0으로 설정됩니다. Amazon RDS 다중 AZ DB 인스턴스는 애플리케이션의 데이터를 저장합니다. DB 인스턴스에는 백업 리전에 읽기 전용 복제본이 있습니다. 애플리케이션은 Amazon Route 53 레코드를 사용하여 최종 사용자에게 엔드포인트를 제공합니다. 회사는 애플리케이션에 백업 리전으로 자동 장애 조치할 수 있는 기능을 제공하여 RTO를 15분 미만으로 줄여야 합니다. 회사는 활성-활성 전략을 위한 충분한 예산이 없습니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?. A. 두 ALB 간에 트래픽 부하를 분산하는 지연 시간 기반 라우팅 정책으로 애플리케이션의 Route 53 레코드를 재구성합니다. 백업 리전에서 AWS Lambda 함수를 생성하여 읽기 전용 복제본을 승격하고 Auto Scaling 그룹 값을 수정합니다. 기본 리전의 ALB에 대한 HTTPCode_Target_5XX_Count 지표를 기반으로 하는 Amazon CloudWatch 경보를 생성합니다. Lambda 함수를 호출하도록 CloudWatch 경보를 구성합니다. B. 백업 리전에서 AWS Lambda 함수를 생성하여 읽기 전용 복제본을 승격하고 Auto Scaling 그룹 값을 수정합니다. 웹 애플리케이션을 모니터링하고 상태 확인 상태가 비정상일 때 Lambda 함수에 Amazon Simple Notification Service (Amazon SNS) 알림을 보내는 상태 확인으로 Route 53을 구성합니다. 상태 확인 실패가 발생할 때 백업 리전의 ALB로 트래픽을 라우팅하는 장애 조치 정책으로 애플리케이션의 Route 53 레코드를 업데이트합니다. C. 기본 리전의 Auto Scaling 그룹과 동일한 값을 갖도록 백업 리전의 Auto Scaling 그룹을 구성합니다. 두 ALB 간에 트래픽 부하를 분산하는 지연 시간 기반 라우팅 정책으로 애플리케이션의 Route 53 레코드를 재구성합니다. 읽기 복제본을 제거합니다. 읽기 전용 복제본을 독립 실행형 RDS DB 인스턴스로 교체합니다. 스냅샷과 Amazon S3를 사용하여 RDS DB 인스턴스 간에 교차 리전 복제를 구성합니다. D. 동일한 가중 대상으로 두 ALB를 사용하여 AWS Global Accelerator에서 엔드포인트를 구성합니다. 백업 리전에서 AWS Lambda 함수를 생성하여 읽기 전용 복제본을 승격하고 Auto Scaling 그룹 값을 수정합니다. 기본 리전의 ALB에 대한 HTTPCode_Target_5XX_Count 지표를 기반으로 하는 Amazon CloudWatch 경보를 생성합니다. Lambda 함수를 호출하도록 CloudWatch 경보를 구성합니다. 솔루션 설계자는 Amazon API Gateway 지역 엔드포인트와 AWS Lambda 함수를 사용하는 웹 애플리케이션을 개발했습니다. 웹 애플리케이션의 소비자는 모두 애플리케이션이 배포될 AWS 리전에 가깝습니다. Lambda 함수는 Amazon Aurora MySQL 데이터베이스만 쿼리합니다. 솔루션 설계자는 3개의 읽기 전용 복제본을 갖도록 데이터베이스를 구성했습니다. 테스트 중에 응용 프로그램이 성능 요구 사항을 충족하지 않습니다. 부하가 높을 때 응용 프로그램은 많은 수의 데이터베이스 연결을 엽니다. 솔루션 설계자는 애플리케이션의 성능을 개선해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조치를 취해야 합니까? (두 가지를 선택하세요.). A. Aurora 데이터베이스의 클러스터 엔드포인트를 사용합니다. B. RDS Proxy를 사용하여 Aurora 데이터베이스의 리더 엔드포인트에 대한 연결 풀을 설정합니다. C. Lambda 프로비저닝된 동시성 기능을 사용합니다. D. 이벤트 핸들러 외부의 Lambda 함수에서 데이터베이스 연결을 여는 코드를 이동합니다. E. API 게이트웨이 엔드포인트를 엣지 최적화 엔드포인트로 변경합니다. 회사는 Amazon EC2 인스턴스에서 Python 스크립트를 실행하여 데이터를 처리합니다. 스크립트는 10분마다 실행됩니다. 스크립트는 Amazon S3 버킷에서 파일을 수집하고 파일을 처리합니다. 평균적으로 스크립트는 각 파일을 처리하는 데 약 5분이 걸립니다. 스크립트는 스크립트가 이미 처리한 파일을 다시 처리하지 않습니다. 회사는 Amazon CloudWatch 지표를 검토한 결과 파일 처리 속도 때문에 EC2 인스턴스가 시간의 약 40% 동안 유휴 상태임을 확인했습니다. 회사는 워크로드의 가용성과 확장성을 높이길 원합니다. 회사는 또한 장기적인 관리 오버헤드를 줄이기를 원합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 데이터 처리 스크립트를 AWS Lambda 함수로 마이그레이션합니다. 회사에서 객체를 업로드할 때 S3 이벤트 알림을 사용하여 Lambda 함수를 호출하여 객체를 처리합니다. B. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이벤트 알림을 SQS 대기열로 보내도록 Amazon S3를 구성합니다. 최소 크기가 인스턴스 1개인 EC2 Auto Scaling 그룹을 생성합니다. 데이터 처리 스크립트를 업데이트하여 SQS 대기열을 폴링합니다. SQS 메시지가 식별하는 S3 객체를 처리합니다. C. 데이터 처리 스크립트를 컨테이너 이미지로 마이그레이션합니다. EC2 인스턴스에서 데이터 처리 컨테이너를 실행합니다. 새 객체에 대해 S3 버킷을 폴링하고 결과 객체를 처리하도록 컨테이너를 구성합니다. D. 데이터 처리 스크립트를 AWS Fargate의 Amazon Elastic Container Service(Amazon ECS)에서 실행되는 컨테이너 이미지로 마이그레이션합니다. 컨테이너가 파일을 처리할 때 Fargate RunTaskAPI 작업을 호출하는 AWS Lambda 함수를 생성합니다. S3 이벤트 알림을 사용하여 Lambda 함수를 호출합니다. 회사는 AWS에 클라우드 인프라를 가지고 있습니다. 솔루션 설계자는 인프라를 코드로 정의해야 합니다. 인프라는 현재 하나의 AWS 리전에 배포되어 있습니다. 이 회사의 비즈니스 확장 계획에는 여러 AWS 계정에 걸쳐 여러 지역에 배포하는 것이 포함됩니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. AWS CloudFormation 템플릿을 사용하십시오. IAM 정책을 추가하여 다양한 계정을 제어하고 여러 지역에 템플릿을 배포합니다. B. AWS Organizations를 사용합니다. 마스터 계정에서 AWS CloudFormation 템플릿 배포 AWS Control Tower를 사용하여 계정 전체에서 배포를 관리합니다. C. AWS Organizations 및 AWS CloudFormation StackSets를 사용합니다. 필요한 IAM 권한이 있는 계정에서 Cloud Formation 템플릿을 배포합니다. D. AWS CloudFormation 템플릿과 함께 중첩 스택을 사용합니다. 중첩 스택을 사용하여 지역을 변경합니다. 여러 AWS 계정이 있는 회사에서 AWS Organizations 및 서비스 제어 정책(SCP)을 사용하고 있습니다. 관리자가 다음 SCP를 생성하여 AWS 계정 1111-1111-1111이 포함된 조직 단위(OU)에 연결했습니다. 계정 1111-1111-1111에서 작업하는 개발자는 Amazon S3 버킷을 생성할 수 없다고 불평합니다. 관리자는 이 문제를 어떻게 해결해야 합니까?. A. SCP에 "허용" 효과가 있는 s3:CreateBucket을 추가합니다. B. OU에서 계정을 제거하고 SCP를 계정 1111-1111-1111에 직접 연결합니다. C. 개발자에게 IAM 엔터티에 Amazon S3 권한을 추가하도록 지시합니다. D. 계정 1111-1111-1111에서 SCP를 제거합니다. 회사에서 및 를 사용하여 Amazon API Gateway AWS Lambda 새로운 서버리스 API를 개발하고 있습니다. 이 회사는 Lambda 함수를 API Gateway와 통합하여 여러 공유 라이브러리와 사용자 지정 클래스를 사용했습니다. 솔루션 설계자는 솔루션 배포를 단순화하고 코드 재사용을 최적화해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 공유 라이브러리 및 사용자 지정 클래스를 Docker 이미지에 배포합니다. 이미지를 S3 버킷에 저장합니다. Docker 이미지를 소스로 사용하는 Lambda 계층을 생성합니다. API의 Lambda 함수를 Zip 패키지로 배포합니다. Lambda 계층을 사용하도록 패키지를 구성합니다. B. 공유 라이브러리 및 사용자 지정 클래스를 Docker 이미지에 배포합니다. 이미지를 Amazon Elastic Container Registry (Amazon ECR)에 업로드합니다. Docker 이미지를 소스로 사용하는 Lambda 계층을 생성합니다. API의 Lambda 함수를 Zip 패키지로 배포합니다. Lambda 계층을 사용하도록 패키지를 구성합니다. C. AWS Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS)의 Docker 컨테이너에 공유 라이브러리 및 사용자 지정 클래스를 배포합니다. API의 Lambda 함수를 Zip 패키지로 배포합니다. 배포된 컨테이너를 Lambda 계층으로 사용하도록 패키지를 구성합니다. D. API의 Lambda 함수에 대한 공유 라이브러리, 사용자 지정 클래스 및 코드를 Docker 이미지에 배포합니다. 이미지를 Amazon Elastic Container Registry(Amazon ECR)에 업로드합니다. Docker 이미지를 배포 패키지로 사용하도록 API의 Lambda 함수를 구성합니다. 회사에는 AWS Organizations에 조직이 있습니다. 이 회사는 AWS Control Tower를 사용하여 조직의 랜딩 존을 배포하고 있습니다. 회사는 거버넌스 및 정책 집행을 구현하려고 합니다. 회사는 회사의 프로덕션 OU에서 유휴 상태에서 암호화되지 않은 Amazon RDS DB 인스턴스를 감지하는 정책을 구현해야 합니다. 이 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Control Tower에서 필수 가드레일을 켭니다. 프로덕션 OU에 필수 가드레일을 적용합니다. B. AWS Control Tower의 강력 권장 가드레일 목록에서 적절한 가드레일을 활성화합니다. 프로덕션 OU에 가드레일을 적용합니다. C. AWS Config를 사용하여 새로운 필수 가드레일을 생성합니다. 프로덕션 OU의 모든 계정에 규칙을 적용합니다. D. AWS Control Tower에서 사용자 지정 SCP를 생성합니다. 프로덕션 OU에 SCP를 적용합니다. 한 회사에서 AWS Organizations의 조직을 사용하여 수백 개의 AWS 계정을 관리하고 있습니다. 솔루션 설계자는 OWASP(Open Web Application Security Project) 상위 10개 웹 애플리케이션 취약성에 대한 기본 보호를 제공하는 솔루션을 개발하고 있습니다. 솔루션 설계자는 조직 내에 배포된 모든 기존 및 신규 Amazon CloudFront 배포에 AWS WAF를 사용하고 있습니다. 솔루션 설계자가 기본 보호를 제공하기 위해 수행해야 하는 단계의 조합은 무엇입니까? (3개를 선택하세요.). A. 모든 계정에서 AWS Config를 활성화합니다. B. 모든 계정에서 Amazon GuardDuty를 활성화합니다. C. 조직의 모든 기능을 활성화합니다. D. AWS Firewall Manager를 사용하여 모든 CloudFront 배포의 모든 계정에 AWS WAF 규칙을 배포합니다. E. AWS Shield Advanced를 사용하여 모든 CloudFront 배포의 모든 계정에 AWS WAF 규칙을 배포합니다. F. AWS Security Hub를 사용하여 모든 CloudFront 배포의 모든 계정에 AWS WAF 규칙을 배포합니다. 회사는 Auto Scaling 그룹에 있는 Amazon EC2 스팟 인스턴스를 사용하여 컴퓨팅 워크로드를 실행하고 있습니다. 시작 템플릿은 두 개의 배치 그룹과 단일 인스턴스 유형을 사용합니다. 최근 모니터링 시스템에서 시스템 사용자의 대기 시간이 길어지는 Auto Scaling 인스턴스 시작 실패를 보고했습니다. 회사는 워크로드의 전반적인 안정성을 개선해야 합니다. 이 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 시작 템플릿을 시작 구성으로 교체하여 속성 기반 인스턴스 유형 선택을 사용하는 Auto Scaling 그룹을 사용합니다. B. 속성 기반 인스턴스 유형 선택을 사용하는 새로운 시작 템플릿 버전을 생성합니다. 새 시작 템플릿 버전을 사용하도록 Auto Scaling 그룹을 구성합니다. C. 시작 템플릿 Auto Scaling 그룹을 업데이트하여 배치 그룹 수를 늘립니다. D. 더 큰 인스턴스 유형을 사용하도록 시작 템플릿을 업데이트합니다. 한 회사에서 AWS로 마이그레이션하여 자주 사용하지는 않지만 여전히 비즈니스에 중요한 애플리케이션 그룹 20개와 관련된 비용을 관리하려고 합니다. 애플리케이션은 서로 다른 인스턴스 클러스터에 분산된 Java와 Node.js의 혼합입니다. 회사는 단일 배포 방법론을 사용하여 표준화하면서 비용을 최소화하려고 합니다. 대부분의 응용 프로그램은 동시 사용자 수가 적은 월말 처리 루틴의 일부이지만 때때로 다른 시간에 실행됩니다. 평균 애플리케이션 메모리 사용량은 1GB 미만입니다. 일부 응용 프로그램은 피크 처리 중에 최대 2.5GB의 메모리를 사용합니다. 그룹에서 가장 중요한 애플리케이션은 여러 데이터 소스에 액세스하고 종종 몇 시간 동안 실행되는 Java로 작성된 청구 보고서입니다. 가장 비용 효율적인 솔루션은 무엇입니까?. A. 각 애플리케이션에 대해 별도의 AWS Lambda 함수를 배포합니다. AWS CloudTrail 로그 및 Amazon CloudWatch 경보를 사용하여 중요한 작업의 완료를 확인하십시오. B. 75%의 메모리 사용률로 구성된 Auto Scaling을 사용하여 Amazon EC2에 Amazon ECS 컨테이너를 배포합니다. ECS 작업 확장으로 마이그레이션되는 각 애플리케이션에 대해 ECS 작업을 배포합니다. Amazon CloudWatch를 사용하여 서비스 및 호스트를 모니터링합니다. C. Auto Scaling을 사용하여 각 애플리케이션에 대해 AWS Elastic Beanstalk를 배포하여 모든 요청에 충분한 리소스가 있는지 확인합니다. CloudWatch 경보를 사용하여 각 AWS Elastic Beanstalk 배포를 모니터링합니다. D. EC2 Auto Scaling 및 Application Load Balancer를 사용하여 모든 애플리케이션을 공동 호스팅하는 새로운 Amazon EC2 인스턴스 클러스터를 배포합니다. 인스턴스 메모리 사용률에 설정된 사용자 지정 메트릭을 기반으로 클러스터 크기를 확장합니다. Auto Scaling 그룹의 GroupMaxSize 파라미터와 동일한 3년 예약 인스턴스 예약을 구매합니다. 회사는 AWS 클라우드에 애플리케이션을 가지고 있습니다. 이 애플리케이션은 20개의 Amazon EC2 인스턴스 플릿에서 실행됩니다. EC2 인스턴스는 영구적이며 연결된 여러 Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 회사는 별도의 AWS 리전에서 백업을 유지 관리해야 합니다. 회사는 하루 분량의 데이터 손실 없이 영업일 기준 1일 이내에 EC2 인스턴스와 해당 구성을 복구할 수 있어야 합니다. 이 회사는 직원이 제한되어 있으며 운영 효율성과 비용을 최적화하는 백업 솔루션이 필요합니다. 이 회사는 보조 리전에 필요한 네트워크 구성을 배포할 수 있는 AWS CloudFormation 템플릿을 이미 생성했습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 보조 리전에서 EC2 인스턴스를 다시 생성할 수 있는 두 번째 CloudFormation 템플릿을 생성합니다. AWS Systems Manager Automation Runbook을 사용하여 매일 다중 볼륨 스냅샷을 실행합니다. 스냅샷을 보조 리전에 복사합니다. 장애가 발생하면 CloudFormation 템플릿을 시작하고 스냅샷에서 EBS 볼륨을 복원하고 사용량을 보조 리전으로 전송합니다. B. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 EBS 볼륨의 일일 다중 볼륨 스냅샷을 생성합니다. 장애가 발생한 경우 CloudFormation 템플릿을 시작하고 Amazon DLM을 사용하여 EBS 볼륨을 복원하고 사용량을 보조 리전으로 전송합니다. C. AWS Backup을 사용하여 EC2 인스턴스에 대한 예약된 일일 백업 계획을 생성합니다. 보조 리전의 볼트에 백업을 복사하도록 백업 작업을 구성합니다. 장애가 발생한 경우 CloudFormation 템플릿을 시작하고 백업 볼트에서 인스턴스 볼륨 및 구성을 복원하고 사용량을 보조 리전으로 전송합니다. D. 동일한 크기 및 구성의 EC2 인스턴스를 보조 지역에 배포합니다. 기본 리전에서 보조 리전으로 데이터를 복사하도록 매일AWS DataSync를 구성합니다. 장애가 발생한 경우 CloudFormation 템플릿을 시작하고 사용량을 보조 리전으로 전송합니다. 회사는 AWS의 VPC에서 이미지 처리 서비스를 호스팅하고 있습니다. VPC는 두 가용 영역에 걸쳐 확장됩니다. 각 가용 영역에는 퍼블릭 서브넷 1개와 프라이빗 서브넷 1개가 포함됩니다. 이 서비스는 프라이빗 서브넷의 Amazon EC2 인스턴스에서 실행됩니다. 퍼블릭 서브넷의 Application Load Balancer는 서비스 앞에 있습니다. 서비스는 인터넷과 통신해야 하며 두 개의 NAT 게이트웨이를 통해 통신합니다. 이 서비스는 이미지 저장을 위해 Amazon S3를 사용합니다. EC2 인스턴스는 매일 S3 버킷에서 약 1TВ의 데이터를 검색합니다. 회사는 서비스를 매우 안전하다고 홍보했습니다. 솔루션 설계자는 서비스의 보안 상태를 손상시키거나 진행 중인 작업에 소요되는 시간을 늘리지 않으면서 클라우드 지출을 최대한 줄여야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. NAT 게이트웨이를 NAT 인스턴스로 교체합니다. VPC 경로 테이블에서 프라이빗 서브넷에서 NAT 인스턴스로의 경로를 만듭니다. B. EC2 인스턴스를 퍼블릭 서브넷으로 이동합니다. NAT 게이트웨이를 제거합니다. C. VPC에서 S3 게이트웨이 VPC 엔드포인트를 설정합니다. 엔드포인트 정책을 엔드포인트에 연결하여 S3 버킷에서 필요 작업을 허용합니다. D. EC2 인스턴스에 Amazon Elastic File System(Amazon EFS) 볼륨을 연결합니다. EFS 볼륨에서 이미지를 호스팅합 니다. 회사에서 온프레미스 애플리케이션을 AWS로 마이그레이션하려고 합니다. 애플리케이션용 데이터베이스는 구조화된 제품 데이터와 임시 사용자 세션 데이터를 저장합니다. 회사는 사용자 세션 데이터에서 제품 데이터를 분리해야 합니다. 또한 회사는 재해 복구를 위해 다른 AWS 리전에 복제를 구현해야 합니다. 최고의 성능으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 별도의 스키마로 Amazon RDS DB 인스턴스를 생성하여 제품 데이터와 사용자 세션 데이터를 호스팅합니다. 다른 리전의 DB 인스턴스에 대한 읽기 전용 복제본을 구성합니다. B. 제품 데이터를 호스팅할 Amazon RDS DB 인스턴스를 생성합니다. 다른 리전의 DB 인스턴스에 대한 읽기 전용 복제본을 구성합니다. 사용자 세션 데이터를 호스팅할 Memcached용 Amazon ElastiCache에서 전역 데이터 저장소를 생성합니다. C. 두 개의 Amazon DynamoDB 글로벌 테이블을 생성합니다. 하나의 전역 테이블을 사용하여 제품 데이터를 호스팅합니다. 다른 글로벌 테이블을 사용하여 사용자 세션 데이터를 호스트하십시오. 캐싱에 DynamoDB Accelerator(DAX)를 사용합니다. D. 제품 데이터를 호스팅할 Amazon RDS DB 인스턴스를 생성합니다. 다른 리전의 DB 인스턴스에 대한 읽기 전용 복제본을 구성합니다. 사용자 세션 데이터를 호스팅할 Amazon DynamoDB 글로벌 테이블을 생성합니다. 배송 회사는 타사 경로 계획 애플리케이션을 AWS로 마이그레이션해야 합니다. 타사는 공용 레지스트리에서 지원되는 Docker 이미지를 제공합니다. 경로 맵을 생성하는 데 필요한 만큼의 컨테이너에서 이미지를 실행할 수 있습니다. 회사는 배송 기사가 허브에서 고객까지 최단 거리를 이동할 수 있도록 배송 영역을 공급 허브가 있는 구역으로 구분했습니다. 경로맵을 생성하는 데 필요한 시간을 줄이기 위해 각 섹션은 섹션 영역에서만 주문을 처리하는 사용자 지정 구성과 함께 고유한 Docker 컨테이너 집합을 사용합니다. 회사는 실행 중인 컨테이너 수에 따라 리소스를 비용 효율적으로 할당할 수 있는 기능이 필요합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon EC2에서 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 생성합니다. Amazon EKS CLI를 사용하여 포드에 사용자 지정 태그를 할당하는 --tags 옵션을 사용하여 포드에서 계획 애플리케이션을 시작합니다. B. AWS Fargate에서 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 생성합니다. Amazon EKS CLI를 사용하여 계획 애플리케이션을 시작합니다. AWS CLI tag-resource API 호출을 사용하여 포드에 사용자 지정 태그를 할당합니다. C. Amazon EC2에서 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. run-tasks가 true로 설정된 를 사용하여 옵션을 사용하여 사용자 지정 태그를 AWS CLI --tags 작업에 할당함으로써 계획 애플리케이션을 시작합니다. D. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. AWS CLI run-task 명령을 사용하고 enableECSManagedTags를 true로 설정하여 계획 애플리케이션을 시작합니다. --tags 옵션을 사용하여 작업에 사용자 지정 태그를 할당합니다. 한 회사에서 Amazon EC2 인스턴스를 사용하여 웹 플릿을 배포하여 블로그 사이트를 호스팅했습니다. EC2 인스턴스는 ALB(Application Load Balancer) 뒤에 있으며 Auto Scaling 그룹에서 구성됩니다. 웹 애플리케이션은 모든 블로그 콘텐츠를 Amazon EFS 볼륨에 저장합니다. 이 회사는 최근 블로거가 게시물에 동영상을 추가할 수 있는 기능을 추가하여 이전 사용자 트래픽의 10배를 끌어들였습니다. 하루 중 피크 시간에 사용자는 사이트에 접속하거나 비디오를 시청하려고 시도하는 동안 버퍼링 및 시간 초과 문제를 보고합니다. 사용자의 문제를 해결할 가장 비용 효율적이고 확장 가능한 배포는 무엇입니까?. A. 최대 I/O를 활성화하도록 Amazon EFS를 재구성합니다. B. 스토리지에 인스턴스 스토어 볼륨을 사용하도록 블로그 사이트를 업데이트합니다. 시작할 때 사이트 콘텐츠를 볼륨에 복사하고 종료할 때 Amazon S3에 복사합니다. C. Amazon CloudFront 배포를 구성합니다. 배포를 S3 버킷으로 지정하고 비디오를 EFS에서 Amazon S3로 마이그레이션 합니다. D. 모든 사이트 콘텐츠에 대해 Amazon CloudFront 배포를 설정하고 배포가 ALB를 가리키도록 합니다. 회사에서 AWS Elastic Beanstalk에 애플리케이션을 배포했습니다. 애플리케이션은 데이터베이스 계층에 Amazon Aurora를 사용합니다. Amazon CloudFront 배포는 웹 요청을 처리하고 Elastic Beanstalk 도메인 이름을 오리진 서버로 포함합니다. 배포는 방문자가 애플리케이션에 액세스할 때 사용하는 대체 도메인 이름으로 구성됩니다. 매주 회사는 일상적인 유지 관리를 위해 응용 프로그램을 서비스에서 제외합니다. 애플리케이션을 사용할 수 없는 시간 동안 회사는 방문자가 CloudFront 오류 메시지 대신 정보 메시지를 받기를 원합니다. 솔루션 설계자는 프로세스의 첫 번째 단계로 Amazon S3 버킷을 생성합니다. 요구 사항을 충족하기 위해 솔루션 설계자가 다음으로 수행해야 하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 정적 정보 콘텐츠를 S3 버킷에 업로드합니다. B. 새 CloudFront 배포를 만듭니다. S3 버킷을 오리진으로 설정합니다. C. 원래 CloudFront 배포에서 S3 버킷을 두 번째 오리진으로 설정합니다. 원본 액세스 ID(OAI)를 사용하도록 배포 및 S3 버킷을 구성합니다. D. 주간 유지 관리 중에 S3 오리진을 사용하도록 기본 캐시 동작을 편집합니다. 유지 관리가 완료되면 변경 사항을 되돌립니다. E. 주간 유지 관리 중에 새 배포에서 S3 오리진에 대한 캐시 동작을 생성합니다. 경로 패턴을 \로 설정합니다. 우선 순위를 0 으로 설정합니다. 유지 관리가 완료되면 캐시 동작을 삭제합니다. F. 주간 유지 관리 중에 S3 버킷의 트래픽을 처리하도록 Elastic Beanstalk를 구성합니다. 한 회사에 수백 개의 AWS 계정이 있습니다. 이 회사는 최근 새로운 예약 인스턴스를 구매하고 기존 예약 인스턴스를 수정하기 위한 중앙 집중식 내부 프로세스를 구현했습니다. 이 프로세스에서는 예약 인스턴스를 구매하거나 수정하려는 모든 사업부가 조달을 위해 전담 팀에 요청을 제출해야 합니다. 이전에는 사업부가 각자의 AWS 계정에서 자율적으로 예약 인스턴스를 직접 구매하거나 수정했습니다. 솔루션 설계자는 가능한 한 가장 안전한 방법으로 새 프로세스를 시행해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (두 가지를 선택하세요.). A. 모든 AWS 계정이 모든 기능이 활성화된 AWS Organizations의 조직에 속하는지 확인하십시오. B. AWS Config를 사용하여 ec2:PurchaseReservedInstancesOffering 작업 및 ec2:ModifyReservedInstances 작업에 대한 액세스를 거부하는 IAM 정책의 연결에 대해 보고합니다. C. 각 AWS 계정에서 ec2:PurchaseReservedInstancesOffering 작업 및 ec2:ModifyReservedInstances 작업을 거부하는 IAM 정책을 생성합니다. D. ec2:PurchaseReservedInstancesOffering 작업 및 ec2:ModifyReservedInstances 작업을 거부하는 SCP를 생성합니다. SCP를 조직의 각 OU에 연결합니다. E. 모든 AWS 계정이 통합 결제 기능을 사용하는 AWS Organizations의 조직에 속해 있는지 확인합니다. AWS 고객에게는 온프레미스에서 실행되는 웹 애플리케이션이 있습니다. 웹 애플리케이션은 방화벽 뒤에 있는 타사 API에서 데이터를 가져옵니다. 타사는 각 클라이언트의 허용 목록에서 하나의 공개 CIDR 블록만 허용합니다. 고객은 웹 애플리케이션을 AWS 클라우드로 마이그레이션하려고 합니다. 애플리케이션은 VPC의 Application Load Balancer(ALB) 뒤에 있는 Amazon EC2 인스턴스 세트에서 호스팅됩니다. ALB는 퍼블릭 서브넷에 있습니다. EC2 인스턴스는 프라이빗 서브넷에 있습니다. NAT 게이트웨이는 프라이빗 서브넷에 대한 인터넷 액세스를 제공합니다. 솔루션 설계자는 웹 애플리케이션이 마이그레이션 후 타사 API를 계속 호출할 수 있는지 어떻게 확인해야 합니까?. A. 고객 소유의 퍼블릭 IP 주소 블록을 VPC에 연결합니다. VPC의 퍼블릭 서브넷에 대한 퍼블릭 IP 주소 지정을 활성화합니다. B. 고객 소유의 퍼블릭 IP 주소 블록을 AWS 계정에 등록합니다. 주소 블록에서 탄력적 IP 주소를 생성하고 VPC의 NAT 게이트웨이에 할당합니다. C. 고객 소유 IP 주소 블록에서 탄력적 IP 주소를 생성합니다. 고정 탄력적 IP 주소를 ALB에 할당합니다. D. 고객 소유의 퍼블릭 IP 주소 블록을 AWS 계정에 등록합니다. 주소 블록의 탄력적 IP 주소를 사용하도록 AWS Global Accelerator를 설정합니다. ALB를 가속기 끝점으로 설정합니다. 회사는 AWS Organizations를 사용하여 여러 AWS 계정을 관리합니다. 루트 OU 아래 회사에는 Research 및 DataOps라는 두 개의 OU가 있습니다. 규정 요구 사항으로 인해 회사에서 조직에 배포하는 모든 리소스는 ap-northeast-1 리전에 있어야 합니다. 또한 회사가 DataOps OU에 배포하는 EC2 인스턴스는 사전 정의된 인스턴스 유형 목록을 사용해야 합니다. 솔루션 설계자는 이러한 제한 사항을 적용하는 솔루션을 구현해야 합니다. 솔루션은 운영 효율성을 극대화하고 지속적인 유지 관리를 최소화해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. DataOps OU 아래의 한 계정에서 IAM 역할을 생성합니다. 역할에 대한 인라인 정책의 ec2:InstanceType 조건 키를 사용하여 특정 인스턴스 유형에 대한 액세스를 제한합니다. B. 루트 OU 아래의 모든 계정에서 IAM 사용자를 생성합니다. 각 사용자의 인라인 정책에서 aws:RequestedRegion 조건 키를 사용하여 ap-northeast-1을 제외한 모든 AWS 리전에 대한 액세스를 제한합니다. C. SCP를 생성합니다. aws:RequestedRegion 조건 키를 사용하여 ap-northeast-1을 제외한 모든 AWS 리전에 대한 액세스를 제한합니다. 루트 OU에 SCP를 적용합니다. D. SCP를 생성합니다. ec2:Region 조건 키를 사용하여 ap-northeast-1을 제외한 모든 AWS 리전에 대한 액세스를 제한합니다. SCP를 루트 OU, DataOps OU 및 Research OU에 적용합니다. E. SCP를 생성합니다. ec2:InstanceType 조건 키를 사용하여 특정 인스턴스 유형에 대한 액세스를 제한합니다. SCP를DataOps OU에 적용합니다. 솔루션 아키텍트는 여러 팀으로 구성된 회사의 AWS 계정 구조를 설계하고 있습니다. 모든 팀은 동일한 AWS 리전에서 작업합니다. 회사에는 온프레미스 네트워크에 연결된 VPC가 필요합니다. 회사는 온프레미스 네트워크에서 들어오고 나가는 총 트래픽이 50Mbps 미만일 것으로 예상합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. VPC와 필수 서브넷을 프로비저닝하는 AWS CloudFormation 템플릿을 생성합니다. 각 AWS 계정에 템플릿을 배포합니다. B. VPC와 필수 서브넷을 프로비저닝하는 템플릿을 AWS CloudFormation 생성합니다. 공유 서비스 계정에 템플릿을 배포합니다. AWS Resource Access Manager를 사용하여 서브넷을 공유합니다. C. 온프레미스 네트워크에 연결하기 위해 AWS Site-to-Site VPN과 함께 AWS Transit Gateway를 사용합니다. AWS Resource Access Manager를 사용하여 전송 게이트웨이를 공유합니다. D. 온프레미스 네트워크 연결을 위해 AWS Site-to-Site VPN을 사용합니다. E. 온프레미스 네트워크 연결을 위해 AWS Direct Connect를 사용합니다. 회사는 단일 Amazon EC2 인스턴스에서 실행되는 Grafana 데이터 시각화 솔루션을 사용하여 회사의 AWS 워크로드 상태를 모니터링합니다. 회사는 회사가 보존하고 싶은 대시보드를 만들기 위해 시간과 노력을 투자했습니다. 대시보드는 가용성이 높아야 하며 10분 이상 다운될 수 없습니다. 회사는 지속적인 유지 관리를 최소화해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon CloudWatch 대시보드로 마이그레이션합니다. 기존 Grafana 대시보드와 일치하도록 대시보드를 다시 만듭니다. 가능한 경우 자동 대시보드를 사용하십시오. B. Amazon 관리형 Grafana 작업 공간을 생성합니다. 새 Amazon CloudWatch 데이터 원본을 구성합니다. 기존 Grafana 인스턴스에서 대시보드를 내보냅니다. 대시보드를 새 작업 공간으로 가져옵니다. C. Grafana가 사전 설치된 AMI를 생성합니다. Amazon Elastic File System(Amazon EFS)에 기존 대시보드를 저장합니다. 새 AMI를 사용하는 Auto Scaling 그룹을 생성합니다. Auto Scaling 그룹의 최소, 희망, 최대 인스턴스 수를 하나로 설정합니다. 두 개 이상의 가용 영역을 제공하는 Application Load Balancer를 생성합니다. D. 매시간 한 번씩 Grafana를 실행하는 EC2 인스턴스를 백업하도록 AWS Backup을 구성합니다. 필요한 경우 대체 가용 영 역의 최신 스냅샷에서 EC2 인스턴스를 복원합니다. 한 회사가 다중 계정 환경에서 AWS에서 애플리케이션을 실행하고 있습니다. 회사의 영업팀과 마케팅팀은 AWS Organizations에서 별도의 AWS 계정을 사용합니다. 영업팀은 Amazon S3 버킷에 페타바이트 규모의 데이터를 저장합니다. 마케팅 팀은 데이터 시각화를 위해 Amazon QuickSight를 사용합니다. 마케팅 팀은 영업 팀이 S3 버킷에 저장하는 데이터에 액세스해야 합니다. 회사는 AWS Key Management Service(AWS KMS) 키로 S3 버킷을 암호화했습니다. 마케팅 팀은 마케팅 AWS 계정에서 QuickSight 액세스를 제공하기 위해 QuickSight용 IAM 서비스 역할을 이미 생성했습니다. 회사는 AWS 계정 전체에서 S3 버킷의 데이터에 대한 보안 액세스를 제공할 솔루션이 필요합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 마케팅 계정에 새 S3 버킷을 생성합니다. 판매 계정에서 S3 복제 규칙을 생성하여 객체를 마케팅 계정의 새 S3 버킷에 복사합니다. 새 S3 버킷에 대한 액세스 권한을 부여하려면 마케팅 계정에서 QuickSight 권한을 업데이트하십시오. B. S3 버킷에 대한 액세스 권한을 마케팅 계정에 부여하는 SCP를 생성합니다. AWS Resource Access Manager(AWS RAM)를 사용하여 영업팀 계정의 KMS 키를 마케팅 계정과 공유합니다. 마케팅 계정에서 QuickSight 권한을 업데이트하여 S3 버킷에 대한 액세스 권한을 부여합니다. C. 마케팅 계정에서 S3 버킷 정책을 업데이트하여 QuickSight 역할에 대한 액세스 권한을 부여합니다. S3 버킷에서 사용되는 암호화 키에 대한 KMS 권한 부여를 생성합니다. QuickSight 역할에 암호 해독 액세스 권한을 부여합니다. 마케팅 계정에서 QuickSight 권한을 업데이트하여 S3 버킷에 대한 액세스 권한을 부여합니다. D. 영업팀 계정에서 IAM 역할을 생성하고 S3 버킷에 대한 액세스 권한을 부여합니다. 마케팅 계정에서 판매 계정의 IAM 역할을 맡아 S3 버킷에 액세스합니다. QuickSight role를 업데이트하여 영업 계정의 새 IAM 역할과 신뢰 관계를 만듭니다. 회사에서 마이크로서비스를 기반으로 하는 새로운 주문형 비디오 애플리케이션을 개발하고 있습니다. 이 애플리케이션은 출시 당시 500만 명의 사용자를 보유하고 6개월 후에는 3천만 명의 사용자를 보유하게 될 것입니다. 이 회사는 AWS Fargate의 Amazon Elastic Container Service(Amazon ECS)에 애플리케이션을 배포했습니다. 회사는 HTTPS 프로토콜을 사용하는 ECS 서비스를 사용하여 애플리케이션을 개발했습니다. 솔루션 설계자는 블루/그린 배포를 사용하여 애플리케이션에 대한 업데이트를 구현해야 합니다. 솔루션은 로드 밸런서를 통해 각 ECS 서비스에 트래픽을 분산해야 합니다. 애플리케이션은 Amazon CloudWatch 경보에 대한 응답으로 작업 수를 자동으로 조정해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 블루/그린 배포 유형과 Network Load Balancer를 사용하도록 ECS 서비스를 구성합니다. 수요를 충족하기 위해 서비스당 작업에 대한 서비스 할당량 증가를 요청합니다. B. 블루/그린 배포 유형과 Network Load Balancer를 사용하도록 ECS 서비스를 구성합니다. Cluster Autoscaler를 사용하여 각 ECS 서비스에 대한 Auto Scaling 그룹을 구현합니다. C. 블루/그린 배포 유형과 Application Load Balancer를 사용하도록 ECS 서비스를 구성합니다. Cluster Autoscaler를 사용하여 각 ECS 서비스에 대한 Auto Scaling 그룹을 구현합니다. D. 블루/그린 배포 유형과 Application Load Balancer를 사용하도록 ECS 서비스를 구성합니다. 각 ECS 서비스에 대해 Service Auto Scaling을 구현합니다. 솔루션 설계자는 AWS 클라우드에서 호스팅되는 애플리케이션을 개선해야 합니다. 애플리케이션은 과부하 연결이 발생하는 Amazon Aurora MySQL DB 인스턴스를 사용합니다. 대부분의 애플리케이션 작업은 레코드를 데이터베이스에 삽입합니다. 애플리케이션은 현재 텍스트 기반 구성 파일에 자격 증명을 저장합니다. 솔루션 설계자는 애플리케이션이 현재 연결 부하를 처리할 수 있도록 솔루션을 구현해야 합니다. 솔루션은 자격 증명을 안전하게 유지하고 정기적으로 자격 증명을 자동으로 교체하는 기능을 제공해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. DB 인스턴스 앞에 Amazon RDS 프록시 계층을 배포합니다. 연결 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. B. DB 인스턴스 앞에 Amazon RDS 프록시 계층을 배포합니다. AWS Systems Manager Parameter Store에 연결 자격 증명을 저장합니다. C. Aurora 복제본을 생성합니다. 연결 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. D. Aurora 복제본을 생성합니다. AWS Systems Manager Parameter Store에 연결 자격 증명을 저장합니다. ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 실행되는 웹 사이트가 있는 회사가 있습니다. 인스턴스는 Auto Scaling 그룹에 있습니다. ALB는 AWS WAF 웹 ACL과 연결됩니다. 웹 사이트는 종종 응용 프로그램 계층에서 공격에 직면합니다. 공격으로 인해 응용 프로그램 서버의 트래픽이 갑자기 크게 증가합니다. 액세스 로그는 각 공격이 서로 다른 IP 주소에서 시작되었음을 보여줍니다. 솔루션 설계자는 이러한 공격을 완화하기 위한 솔루션을 구현해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 서버 액세스를 모니터링하는 Amazon CloudWatch 경보를 생성합니다. IP 주소별 액세스를 기반으로 임계값을 설정합니다. 웹 ACL의 거부 목록에 IP 주소를 추가하는 경보 동작을 구성합니다. B. AWS WAF 외에 AWS Shield Advanced를 배포합니다. ALB를 보호 리소스로 추가합니다. C. 사용자 IP 주소를 모니터링하는 Amazon CloudWatch 경보를 생성합니다. IP 주소별 액세스를 기반으로 임계값을 설정합니다. 경보를 활성화하는 모든 IP 주소에 대해 애플리케이션 서버의 서브넷 라우팅 테이블에 거부 규칙을 추가하도록 AWS Lambda 함수를 호출하도록 경보를 구성합니다. D. 액세스 로그를 검사하여 공격을 시작한 IP 주소의 패턴을 찾습니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 해당 IP 주소를 호스팅하는 국가에서 오는 트래픽을 거부합니다. 회사는 온프레미스 데이터 센터에서 AWS로의 연결을 설정해야 합니다. 회사는 VPC 네트워크 간의 전이 라우팅 기능을 사용하여 서로 다른 AWS 리전에 있는 모든 VPC를 연결해야 합니다. 회사는 또한 네트워크 아웃바운드 트래픽 비용을 줄이고 대역폭 처리량을 늘리고 최종 사용자에게 일관된 네트워크 경험을 제공해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 온프레미스 데이터 센터와 새로운 중앙 VPC 간에 AWS Site-to-Site VPN 연결을 생성합니다. 중앙 VPC에서 다른 모든 VPC로 시작되는 VPC 피어링 연결을 생성합니다. B. 온프레미스 데이터 센터와 AWS 간에 AWS Direct Connect 연결을 생성합니다. 전송 VIF를 프로비저닝하고 이를 Direct Connect 게이트웨이에 연결합니다. 각 리전에서 전송 게이트웨이를 사용하여 Direct Connect 게이트웨이를 다른 모든 VPC에 연결합니다. C. 온프레미스 데이터 센터와 새로운 중앙 VP 간에 AWS Site-to-Site VPN 연결 생성동적 라우팅이 있는 전송 게이트웨이를 사용합니다. 전송 게이트웨이를 다른 모든 VPC에 연결합니다. D. 온프레미스 데이터 센터와 AWS 간에 AWS Direct Connect 연결을 생성합니다. 각 리전의 모든 VPC 간에 AWS Site- to-Site VPN 연결을 설정합니다. 중앙 VPC에서 다른 모든 VPC로 시작되는 VPC 피어링 연결을 생성합니다. 솔루션 설계자는 온프레미스 데이터 처리 애플리케이션을 AWS 클라우드로 마이그레이션하는 방법에 대해 회사에 조언해야 합니다. 현재 사용자는 웹 포털을 통해 입력 파일을 업로드합니다. 그런 다음 웹 서버는 업로드된 파일을 NAS에 저장하고 메시지 대기열을 통해 처리 서버에 메시지를 보냅니다. 각 미디어 파일을 처리하는 데 최대 1시간이 걸릴 수 있습니다. 회사는 처리 대기 중인 미디어 파일의 수가 업무 시간 동안 훨씬 더 많고 업무 시간 이후에는 파일 수가 급격히 감소한다는 사실을 확인했습니다. 가장 비용 효율적인 마이그레이션 권장 사항은 무엇입니까?. A. Amazon SQS를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. 대기열에 메시지가 있으면 AWS Lambda 함수를 호출하여 대기열에서 요청을 가져와 파일을 처리합니다. 처리된 파일을 Amazon S3 버킷에 저장합니다. B. Amazon MQ를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. 대기열에 메시지가 있는 경우 새 Amazon EC2 인스턴스를 생성하여 대기열에서 요청을 끌어오고 파일을 처리합니다. 처리된 파일을 Amazon EFS에 저장합니다. 작업이 완료된 후 EC2 인스턴스를 종료합니다. C. Amazon MQ를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. 대기열에 메시지가 있으면 AWS Lambda 함수를 호출하여 대기열에서 요청을 가져와 파일을 처리합니다. 처리된 파일을 Amazon EFS에 저장합니다. D. Amazon SQS를 사용하여 대기열을 생성합니다. 새 대기열에 게시하도록 기존 웹 서버를 구성합니다. EC2 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 대기열에서 요청을 가져오고 파일을 처리합니다. SQS 대기열 길이를 기준으로 EC2 인스턴스를 확장합니다. 처리된 파일을 Amazon S3 버킷에 저장합니다. 회사에서 온프레미스 애플리케이션의 재해 복구를 위해 AWS를 사용하려고 합니다. 이 회사는 응용 프로그램을 실행하는 수백 대의 Windows 기반 서버를 보유하고 있습니다. 모든 서버는 공통 공유를 마운트합니다. 회사의 RTO는 15분이고 RPO는 5분입니다. 솔루션은 기본 장애 조치 및 폴백 기능을 지원해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. AWS Storage Gateway 파일 게이트웨이를 생성합니다. 매일 Windows 서버 백업을 예약합니다. 데이터를 Amazon S3에 저장합니다. 재해 발생 시 백업에서 온프레미스 서버를 복구합니다. 테일백 중에 Amazon EC2 인스턴스에서 온프레미스 서버를 실행합니다. B. AWS CloudFormation 템플릿 세트를 생성하여 인프라를 생성합니다. AWS DataSync를 사용하여 모든 데이터를 Amazon Elastic File System(Amazon EFS)에 복제합니다. 재해 발생 시 AWS CodePipeline을 사용하여 템플릿을 배포하여 온프레미스 서버를 복원하십시오. DataSync를 사용하여 데이터를 장애 복구합니다. C. AWS에서 다중 사이트 활성-활성 환경을 유지하기 위해 AWS Cloud Development Kit(AWS CDK) 파이프라인을 생성합니다. s3 sync 명령을 사용하여 Amazon S3에 데이터를 복제합니다. 재해 발생 시 AWS를 가리키도록 DNS 엔드포인트를 교체합니다. s3 sync 명령을 사용하여 데이터를 장애 복구합니다. D. AWS Elastic Disaster Recovery를 사용하여 온프레미스 서버를 복제합니다. AWS DataSync를 사용하여 Windows 파일 서버용 Amazon FSx 파일 시스템에 데이터를 복제합니다. 파일 시스템을 AWS 서버에 탑재합니다. 재해 발생 시 온프레미스 서버를 AWS로 장애 조치합니다. Elastic Disaster Recovery를 사용하여 새 서버 또는 기존 서버로 장애 복구합니다. 회사에서 대량의 보관 문서를 저장하고 회사 인트라넷을 통해 직원이 문서를 사용할 수 있도록 할 계획입니다. 직원은 VPC에 연결 된 클라이언트 VPN 서비스를 통해 연결하여 시스템에 액세스합니다. 데이터는 대중이 접근할 수 없어야 합니다. 회사가 저장하고 있는 문서는 다른 곳의 물리적 매체에 보관된 데이터의 사본입니다. 요청 수가 적습니다. 가용성과 검색 속도는 회사의 관심사가 아닙니다. 최저 비용으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon S3 버킷을 생성합니다. S3 One Zone-Infrequent Access(S3 One Zone-IA) 스토리지 클래스를 기본값으로 사용하도록 S3 버킷을 구성합니다. 웹 사이트 호스팅을 위해 S3 버킷을 구성합니다. S3 인터페이스 엔드포인트를 생성합니다. 해당 엔드포인트를 통해서만 액세스를 허용하도록 S3 버킷을 구성합니다. B. 웹 서버를 실행하는 Amazon EC2 인스턴스를 시작합니다. Amazon Elastic File System(Amazon EFS) 파일 시스템을 연결하여 보관된 데이터를 EFS One Zone-Infrequent Access(EFS One Zone-IA) 스토리지 클래스에 저장합니다.프라이빗 네트워크에서만 액세스할 수 있도록 인스턴스 보안 그룹을 구성합니다. C. 웹 서버를 실행하는 Amazon EC2 인스턴스를 시작합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨을 연결하여 아카이브된 데이터를 저장합니다. Cold HDD(sc1) 볼륨 유형을 사용합니다. 사설 네트워크에서만 액세스를 허용하도록 인스턴스 보안 그룹을 구성합니다. D. Amazon S3 버킷을 생성합니다. S3 Glacier Deep Archive 스토리지 클래스를 기본값으로 사용하도록 S3 버킷을 구성 합니다. 웹 사이트 호스팅을 위해 S3 버킷을 구성합니다. S3 인터페이스 엔드포인트를 생성합니다. 해당 엔드포인트를 통해서만 액세스를 허용하도록 S3 버킷을 구성합니다. 회사에서 AWS Organizations 구조를 설계하고 있습니다. 회사는 조직 전체에 태그를 적용하는 프로세스를 표준화하려고 합니다. 회사는 사용자가 새 리소스를 만들 때 특정 값이 있는 태그를 요구합니다. 회사의 각 OU에는 고유한 태그 값이 있습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 필요한 태그가 없는 리소스 생성을 거부하려면 SCP를 사용하십시오. 회사에서 각 OU에 할당한 태그 값을 포함하는 태그 정책을 만듭니다. 태그 정책을 OU에 연결합니다. B. 필요한 태그가 없는 리소스 생성을 거부하려면 SCP를 사용하십시오. 회사에서 각 OU에 할당한 태그 값을 포함하는 태그 정책을 만듭니다. 태그 정책을 조직의 마스터 계정에 연결합니다. C. 리소스에 필요한 태그가 있는 경우에만 SCP를 사용하여 리소스 생성을 허용합니다. 회사에서 각 OU에 할당한 태그 값을 포함하는 태그 정책을 만듭니다. 태그 정책을 OU에 연결합니다. D. SCP를 사용하여 필수 태그가 없는 리소스 생성을 거부합니다. 태그 목록을 정의합니다. SCP를 OU에 연결합니다. 회사에는 단일 AWS 계정이 있는 환경이 있습니다. 솔루션 아키텍트는 AWS Management Console에 대한 액세스와 관련하여 특히 개선할 수 있는 부분을 추천하기 위해 환경을 검토하고 있습니다. 회사의 IT 지원 작업자는 현재 관리 작업을 위해 콘솔에 액세스하여 작업 역할에 매핑된 명명된 IAM 사용자로 인증합니다. IT 지원 작업자는 더 이상 Active Directory와 IAM 사용자 계정을 모두 유지하기를 원하지 않습니다. 기존 Active Directory 자격 증명을 사용하여 콘솔에 액세스할 수 있기를 원합니다. 솔루션 설계자는 AWS IAM Identity Center(AWS Single Sign-On)를 사용하여 이 기능을 구현합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. AWS Organizations에서 조직을 생성합니다. 조직에서 IAM Identity Center 기능을 켭니다. 회사의 온프레미스 Active Directory에 대한 양방향 트러스트를 통해 AWS Directory Service for Microsoft Active Directory(AWS Managed Microsoft AD)에서 디렉터리를 생성하고 구성합니다. IAM Identity Center를 구성하고 AWS Managed Microsoft AD 디렉터리를 자격 증명 소스로 설정합니다. 권한 집합을 생성하고 AWS Managed Microsoft AD 디렉터리 내의 기존 그룹에 매핑합니다. B. AWS Organizations에서 조직을 생성합니다. 조직에서 IAM Identity Center 기능을 켭니다. 회사의 온프레미스 Active Directory에 연결할 AD 커넥터를 만들고 구성합니다. IAM Identity Center를 구성하고 AD 커넥터를 ID 소스로 선택합니다. 권한 집합을 만들고 회사의 Active Directory 내의 기존 그룹에 매핑합니다. C. AWS Organizations에서 조직을 생성합니다. 조직의 모든 기능을 켭니다. 회사의 온프레미스 Active Directory에 대한 양방향 트러스트를 통해 AWS Directory Service for Microsoft Active Directory(AWS Managed Microsoft AD)에서 디렉터리를 생성하고 구성합니다. IAM Identity Center를 구성하고 AWS Managed Microsoft AD 디렉터리를 자격 증명 소스로 선택합니다. 권한 집합을 생성하고 AWS Managed Microsoft AD 디렉터리 내의 기존 그룹에 매핑합니다. D. AWS Organizations에서 조직을 생성합니다. 조직의 모든 기능을 켭니다. 회사의 온프레미스 Active Directory에 연결할 커넥터를 만들고 구성합니다 AD . IAM Identity Center를 구성하고 AD Connector를 ID 소스로 설정합니다. 권한 집합을 만들고 회사의 Active Directory 내의 기존 그룹에 매핑합니다. 소프트웨어 회사는 여러 AWS 계정 및 리전의 리소스를 사용하여 AWS에서 애플리케이션을 호스팅합니다. 애플리케이션은 IPv4 CIDR 블록이 10.10.0.0/16인 us-east-1 리전에 위치한 애플리케이션 VPC의 Amazon EC2 인스턴스 그룹에서 실행됩니다. 다른 AWS 계정에서 공유 서비스 VPC는 IPv4 CIDR 블록이 10.10.10.0/24인 us-east-2 리전에 있습니다. 클라우드 엔지니어가 AWS CloudFormation을 사용하여 애플리케이션 VPC를 공유 서비스 VPC와 피어링하려고 시도하면 피어링 실패를 나타내는 오류 메시지가 표시됩니다. 어떤 요인이 이 오류를 일으킬 수 있습니까? (두 가지를 선택하세요.). A. 두 VPC의 IPv4 CIDR 범위가 겹칩니다. B. VPC가 동일한 지역에 있지 않습니다. C. 하나 또는 두 계정 모두 인터넷 게이트웨이에 대한 액세스 권한이 없습니다. D. VPC 중 하나가 AWS Resource Access Manager를 통해 공유되지 않았습니다. E. Peer 수락자 계정의 IAM 역할에 올바른 권한이 없습니다. 회사는 AWS에 클라우드 인프라를 가지고 있습니다. 솔루션 설계자는 인프라를 코드로 정의해야 합니다. 인프라는 현재 하나의 AWS 리전에 배포되어 있습니다. 이 회사의 비즈니스 확장 계획에는 여러 AWS 계정에 걸쳐 여러 지역에 배포하는 것이 포함됩니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. AWS CloudFormation 템플릿을 사용하십시오. IAM 정책을 추가하여 다양한 계정을 제어하고 여러 지역에 템플릿을 배포합니다. B. AWS Organizations를 사용합니다. 마스터 계정에서 AWS CloudFormation 템플릿 배포 AWS Control Tower를 사용하여 계정 전체에서 배포를 관리합니다. C. AWS Organizations 및 AWS CloudFormation StackSets를 사용합니다. 필요한 IAM 권한이 있는 계정에서 CloudFormation 템플릿을 배포합니다. D. AWS CloudFormation 템플릿과 함께 중첩 스택을 사용합니다. 중첩 스택을 사용하여 지역을 변경합니다. 회사에는 잠재적 임차인과 구매자에게 부동산 정보를 제공하는 온프레미스 웹 사이트 애플리케이션이 있습니다. 이 웹사이트는 Java 백엔드와 NoSQL MongoDB 데이터베이스를 사용하여 구독자 데이터를 저장합니다. 회사는 전체 애플리케이션을 비슷한 구조의 AWS로 마이그레이션해야 합니다. 응용 프로그램은 고가용성을 위해 배포되어야 하며 회사는 응용 프로그램을 변경할 수 없습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Aurora DB 클러스터를 구독자 데이터의 데이터베이스로 사용하십시오. Java 백엔드 애플리케이션을 위해 여러 가용 영역에 걸쳐 Auto Scaling 그룹에 Amazon EC2 인스턴스를 배포합니다. B. 구독자 데이터의 데이터베이스로 Amazon EC2 인스턴스의 MongoDB를 사용합니다. Java 백엔드 애플리케이션을 위한 단일 가용 영역의 Auto Scaling 그룹에 EC2 인스턴스를 배포합니다. C. 구독자 데이터의 데이터베이스로 여러 가용 영역에서 적절한 크기의 인스턴스로 Amazon DocumentDB(MongoDB와 호환)를 구성합니다. Java 백엔드 애플리케이션을 위해 여러 가용 영역에 걸쳐 Auto Scaling 그룹에 Amazon EC2 인스턴스를 배포합니다. D. 구독자 데이터용 데이터베이스로 여러 가용 영역에서 온디맨드 용량 모드로 Amazon DocumentDB(MongoDB와 호환)를 구성합니다. Java 백엔드 애플리케이션을 위해 여러 가용 영역에 걸쳐 Auto Scaling 그룹에 Amazon EC2 인스턴스를 배포합니다. 회사에서 웹 애플리케이션을 개발했습니다 . 회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스 그룹에서 애플리케이션을 호스팅하고 있습니다. 이 회사는 애플리케이션의 보안 태세를 개선하기를 원하며 AWS WAF 웹 ACL을 사용할 계획입니다. 솔루션은 애플리케이션에 대한 합법적인 트래픽에 부정적인 영향을 미치지 않아야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 웹 ACL을 어떻게 구성해야 합니까?. A. 웹 ACL 규칙의 동작을 Count로 설정합니다. AWS WAF 로깅을 활성화합니다. 가양성에 대한 요청을 분석합니다. 잘못된 긍정을 방지하도록 규칙을 수정합니다. 시간이 지남에 따라 웹 ACL 규칙의 작업을 개수에서 차단으로 변경합니다. B. 웹 ACL에서 속도 기반 규칙만 사용하고 스로틀 제한을 최대한 높게 설정합니다. 제한을 초과하는 모든 요청을 일시적으로 차단합니다. 속도 추적 범위를 좁히기 위해 중첩된 규칙을 정의합니다. C. 웹 ACL 규칙의 동작을 차단으로 설정합니다. 웹 ACL에서는 AWS 관리형 규칙 그룹만 사용하십시오. AWS WAF 샘플링 요청 또는 AWS WAF 로그와 함께 Amazon CloudWatch 지표를 사용하여 규칙 그룹을 평가합니다. D. 웹 ACL에서 사용자 지정 규칙 그룹만 사용하고 작업을 허용으로 설정합니다. AWS WAF 로깅을 활성화합니다. 가양성에 대한 요청을 분석합니다. 잘못된 긍정을 방지하도록 규칙을 수정합니다. 시간이 지남에 따라 웹 ACL 규칙의 동작을 허용에서 차단으로 변경합니다. 회사가 AWS 클라우드에서 애플리케이션을 실행하고 있습니다. 회사의 보안 팀은 모든 새 IAM 사용자 생성을 승인해야 합니다. 새 IAM 사용자가 생성되면 해당 사용자에 대한 모든 액세스 권한이 자동으로 제거되어야 합니다. 그런 다음 보안 팀은 사용자를 승인하라는 알림을 받아야 합니다. 이 회사는 AWS 계정에 다중 리전 AWS CloudTrail 추적이 있습니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. CloudTrail을 통해 AWS API 호출로 설정된 detail-type 값과 CreateUser의 eventName으로 패턴을 정의합니다. B. CreateUser 이벤트에 대한 알림을 Amazon Simple Notification Service(Amazon SNS) 주제로 보내도록 CloudTrail을 구성합니다. C. AWS Fargate 기술을 사용하여 Amazon Elastic Container Service(Amazon ECS)에서 실행되는 컨테이너를 호출하여 액세스 권한을 제거합니다. D. AWS Step Functions 상태 시스템을 호출하여 액세스를 제거합니다. E. Amazon Simple Notification Service(Amazon SNS)를 사용하여 보안 팀에 알립니다. F. Amazon Pinpoint를 사용하여 보안 팀에 알립니다. 회사는 eu-west-1 리전에서 애플리케이션을 실행하고 각 환경(개발, 테스트 및 생산)에 대해 하나의 계정을 가지고 있습니다. 모든 환경은 상태 저장 Amazon EC2 인스턴스와 Amazon RDS for MySQL 데이터베이스를 사용하여 하루 24시간 연중무휴로 실행됩니다. 데이터베이스 크기는 500GB에서 800GB 사이입니다. 개발팀과 테스팅팀은 업무시간 중에도 근무하지만 프로덕션 환경은 연중무휴 24시간 운영됩니다. 회사는 비용을 줄이고 싶어합니다. 모든 리소스는 개발, 테스트 또는 프로덕션을 키로 사용하여 환경 태그로 태그가 지정됩니다. 최소한의 운영 노력으로 비용을 절감하기 위해 솔루션 설계자는 무엇을 해야 합니까?. A. 매일 한 번 실행되는 Amazon EventBridge 규칙을 생성합니다. 나 태그, 요일 및 시간을 기반으로 인스턴스를 시작하거나 슬롭하는 하나의 AWS Lambda 함수를 호출하도록 규칙을 구성합니다. B. 매일 저녁에 실행되는 Amazon EventBridge 규칙을 생성합니다. 태그를 기반으로 인스턴스를 중지하는 AWS Lambda 함수를 호출하도록 규칙을 구성합니다. 매일 아침에 실행되는 두 번째 EventBridge 규칙을 만듭니다. 태그를 기반으로 인스턴스를 시작하는 다른 Lambda 함수를 호출하도록 두 번째 규칙을 구성합니다. C. 매일 저녁에 실행되는 Amazon EventBridge 규칙을 생성하고, 지연을 기반으로 인스턴스를 종료하는 AWS Lambda 함수를 호출하도록 규칙을 구성합니다. 매일 아침에 실행되는 두 번째 EventBridge 규칙을 만듭니다. 태그를 기반으로 마지막 백업에서 인스턴스를 복원하는 다른 Lambda 함수를 호출하는 두 번째 규칙을 구성합니다. D. 매시간 실행되는 Amazon EventBridge 규칙을 생성합니다. 태그를 기반으로 마지막 백업에서 인스턴스를 종료하거나 복원하는 하나의 AWS Lambda 함수를 호출하도록 규칙을 구성합니다. 요일, 시간. 글로벌 미디어 회사는 애플리케이션의 다중 지역 배포를 계획하고 있습니다. Amazon DynamoDB 글로벌 테이블은 사용자가 집중된 두 대륙에서 일관된 사용자 경험을 유지하기 위해 배포를 지원합니다. 각 배포에는 퍼블릭 Application Load Balancer(ALB)가 있습니다. 퍼블릭 DNS는 회사에서 내부적으로 관리합니다. 회사는 apex 도메인을 통해 애플리케이션을 사용할 수 있게하려고 합니다. 최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 퍼블릭 DNS를 Amazon Route 53으로 마이그레이션합니다. ALB를 가리키도록 apex 도메인에 대한 CNAME 레코드를 생성합니다. 지리적 위치 라우팅 정책을 사용하여 사용자 위치를 기반으로 트래픽을 라우팅합니다. B. Amazon Route 53에 대한 ALMigrate 퍼블릭 DNS 앞에 NLB(Network Load Balancer)를 배치합니다. NLB의 정적 IP 주소를 가리키도록 apex 도메인에 대한 CNAME 레코드를 생성합니다. 지리적 위치 라우팅 정책을 사용하여 사용자 위치를 기반으로 트래픽을 라우팅합니다. C. 적절한 AWS 리전의 엔드포인트를 대상으로 하는 여러 엔드포인트 그룹으로 AWS Global Accelerator 액셀러레이터를 생성합니다. 액셀러레이터의 정적 IP 주소를 사용하여 apex 도메인에 대한 퍼블릭 DNS의 레코드를 생성합니다. D. AWS 리전 중 하나에서 AWS Lambda가 지원하는 Amazon API Gateway API를 생성합니다. 라운드 로빈 방법을 사용하여 트래픽을 애플리케이션 배포로 라우팅하도록 Lambda 함수를 구성합니다. API의 URL을 가리키도록 apex 도메인에 대한 CNAME 레코드를 생성합니다. 대기업은 수백 개의 AWS 계정에 배포된 VPC에서 워크로드를 실행합니다. 각 VPC는 여러 가용 영역에 걸쳐 있는 퍼블릭 서브 넷과 프라이빗 서브넷으로 구성됩니다. NAT 게이트웨이는 퍼블릭 서브넷에 배포되며 프라이빗 서브넷에서 인터넷으로의 아웃바운드 연결을 허용합니다. 솔루션 설계자가 허브 앤 스포크 설계 작업을 하고 있습니다. 스포크 VPC의 모든 프라이빗 서브넷은 송신 VPC를 통해 트래픽을 인터넷으로 라우팅해야 합니다. 솔루션 설계자는 이미 중앙 AWS 계정의 송신 VPC에 NAT 게이트웨이를 배포했습니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자가 수행해야 하는 추가 단계는 무엇입니까?. A. 송신 VPC와 스포크 VPC 간에 피어링 연결을 생성합니다. 인터넷 액세스를 허용하도록 필요한 라우팅을 구성합니다. B. transit gateway를 생성하고 기존 AWS 계정과 공유합니다. Transit Gateway에 기존 VPC를 연결합니다. 인터넷 액세스를 허용하도록 필요한 라우팅을 구성합니다. C. 모든 계정에서 전송 게이트웨이를 생성합니다. NAT 게이트웨이를 transit gateway에 연결합니다. 인터넷 액세스를 허용하도록 필요한 라우팅을 구성합니다. D. 송신 VPC와 스포크 VPC 간에 AWS PrivateLink 연결을 생성합니다. 인터넷 액세스를 허용하도록 필요한 라우팅을 구성 합니다. 회사에서 다른 공급업체로부터 가전제품을 구입했습니다. 모든 기기에는 IoT 센서가 있습니다. 센서는 정보를 JSON으로 구문 분석하는 레거시 응용 프로그램에 공급업체의 독점 형식으로 상태 정보를 보냅니다. 구문 분석은 간단하지만 각 공급업체마다 고유한 형식이 있습니다. 애플리케이션은 매일 한 번 모든 JSON 레코드를 구문 분석하고 분석을 위해 레코드를 관계형 데이터베이스에 저장합니다. 회사는 더 빠르게 제공하고 비용을 최적화할 수 있는 새로운 데이터 분석 솔루션을 설계해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. IoT 센서를 AWS IoT Core에 연결합니다. AWS Lambda 함수를 호출하여 정보를 구문 분석하고 .csv 파일을 Amazon에 저장하는 규칙을 설정합니다. S3 AWS Glue를 사용하여 파일을 분류합니다. 분석을 위해 Amazon Athena 및 Amazon QuickSight를 사용합니다. B. 애플리케이션 서버를 AWS Fargate로 마이그레이션하면 IoT 센서에서 정보를 수신하고 정보를 관계형 형식으로 구문 분석합니다. 분석을 위해 구문 분석된 정보를 Amazon Redshlft에 저장합니다. C. SFTP 서버용 AWS 전송을 생성합니다. SFTP를 통해 정보를 .csv 파일로 서버에 전송하도록 IoT 센서 코드를 업데이트합니다. AWS Glue를 사용하여 파일을 분류합니다. Amazon Athena를 사용하여 분석하십시오. D. AWS Snowball Edge를 사용하여 IoT 센서에서 직접 데이터를 수집하여 로컬 분석을 수행합니다. 정기적으로 데이터를 Amazon Redshift로 수집하여 글로벌 분석을 수행합니다. 회사는 소스라는 계정에 애플리케이션을 가지고 AWS 있습니다. 계정은 AWS Organizations의 조직에 있습니다. 애플리케이션 중 하나는 AWS Lambda 기능을 사용하고 인벤토리 데이터를 Amazon Aurora 데이터베이스에 저장합니다. 애플리케이션은 배포 패키지를 사용하여 Lambda 함수를 배포합니다. 회사는 Aurora에 대한 자동 백업을 구성했습니다. 회사는 Lambda 함수와 Aurora 데이터베이스를 Target이라는 새 AWS 계정으로 마이그레이션하려고 합니다. 애플리케이션은 중요한 데이터를 처리하므로 회사는 다운타임을 최소화해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 소스 계정에서 Lambda 함수 배포 패키지를 다운로드합니다. 배포 패키지를 사용하고 Target 계정에서 새 Lambda 함수를 생성합니다. 자동화된 Aurora DB 클러스터 스냅샷을 대상 계정과 공유합니다. B. 소스 계정에서 Lambda 함수 배포 패키지를 다운로드합니다. 배포 패키지를 사용하고 Target 계정에서 새 Lambda 함수를 생성합니다. AWS Resource Access Manager(AWS RAM)를 사용하여 대상 계정과 Aurora DB 클러스터를 공유합니다. 대상 계정에 Aurora DB 클러스터를 복제할 수 있는 권한을 부여합니다. C. AWS RAM(AWS Resource Access Manager)을 사용하여 대상 계정과 Lambda 함수 및 Aurora DB 클러스터를 공유합니다. 대상 계정에 Aurora DB 클러스터를 복제할 수 있는 권한을 부여합니다. D. AWS RAM(AWS Resource Access Manager)을 사용하여 대상 계정과 Lambda 함수를 공유합니다. 자동화된 Aurora DB 클러스터 스냅샷을 대상 계정과 공유합니다. 한 회사가 최근에 다른 여러 회사를 인수했습니다. 각 회사에는 청구 및 보고 방법이 다른 별도의 AWS 계정이 있습니다. 인수 회사는 모든 계정을 AWS Organizations의 하나의 조직으로 통합했습니다. 그러나 인수 회사는 모든 팀에 대해 의미 있는 그룹을 포함하는 비용 보고서를 생성하는 데 어려움을 겪었습니다. 인수 회사의 재무 팀은 자체 관리 애플리케이션을 통해 모든 회사의 비용을 보고할 수 있는 솔루션이 필요합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 조직에 대한 AWS 비용 및 사용 보고서를 생성합니다. 보고서에서 태그 및 비용 범주를 정의합니다. Amazon Athena에서 테이블을 생성합니다. Athena 테이블을 기반으로 Amazon QuickSight 데이터 세트를 생성합니다. 재무 팀과 데이터 세트를 공유합니다. B. 조직에 대한 AWS 비용 및 사용 보고서를 생성합니다. 보고서에서 태그 및 비용 범주를 정의합니다. 재무 부서에서 보고서 작성에 사용할 특수 템플릿을 AWS Cost Explorer에서 생성합니다. C. AWS Price List Query API에서 지출 정보를 수신하는 Amazon QuickSight 데이터 세트를 생성합니다. 재무 팀과 데이터 세트를 공유합니다. D. AWS Price List Query API를 사용하여 계정 지출 정보를 수집합니다. 재무 부서에서 보고서 작성에 사용할 특수 템플릿을 AWS Cost Explorer에서 생성합니다. 회사는 Amazon S3를 사용하여 다양한 스토리지 클래스에 파일과 이미지를 저장합니다. 회사의 S3 비용은 작년에 크게 증가했습니다.솔루션 설계자는 지난 12개월 동안의 데이터 추세를 검토하고 개체에 적합한 스토리지 클래스를 식별해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 지난 12개월간의 S3 사용에 대한 AWS 비용 및 사용 보고서를 다운로드하십시오. 비용 절감을 위한 AWS Trusted Advisor 권장 사항을 검토합니다. B. S3 스토리지 클래스 분석을 사용합니다. 데이터 추세를 Amazon QuickSight 대시보드로 가져와 스토리지 추세를 분석합니다. C. Amazon S3 Storage Lens를 사용합니다. 스토리지 경향에 대한 고급 지표를 포함하도록 기본 대시보드를 업그레이드하십시오. D. S3용 액세스 분석기를 사용합니다. 지난 12개월 동안의 Access Analyzer for S3 보고서를 다운로드하십시오. .csv 파일을 Amazon QuickSight 대시보드로 가져옵니다. 보안 엔지니어는 기존 애플리케이션이 Amazon S3의 암호화된 파일에서 Amazon RDS for MySQL 데이터베이스에 대한 자격 증명을 검색하는 것을 확인했습니다. 다음 버전의 애플리케이션에서 보안 엔지니어는 보안을 개선하기 위해 다음과 같은 애플리케이션 설계 변경 사항을 구현하려고 합니다. 데이터베이스는 안전한 AWS 관리형 서비스에 저장된 무작위로 생성된 강력한 암호를 사용해야 합니다.애플리케이션 리소스는 AWS CloudFormation을 통해 배포해야 합니다.애플리케이션은 90일마다 데이터베이스에 대한 자격 증명을 교체해야 합니다. 솔루션 설계자는 CloudFormation 템플릿을 생성하여 애플리케이션을 배포합니다. CloudFormation 템플릿에 지정된 리소스는 최소한의 운영 오버헤드로 보안 엔지니어의 요구 사항을 충족합니까?. A. AWS Secrets Manager를 사용하여 비밀 리소스로 데이터베이스 암호를 생성합니다. 데이터베이스 암호를 교체할 AWS Lambda 함수 리소스를 생성합니다. 90일마다 데이터베이스 암호를 교체하도록 Secrets Manager RotationSchedule 리소스를 지정합니다. B. AWS Systems Manager Parameter Store를 사용하여 SecureString 파라미터 유형으로 데이터베이스 암호를 생성합니다. 데이터베이스 암호를 교체할 AWS Lambda 함수 리소스를 생성합니다. 90일마다 데이터베이스 암호를 교체하려면 Parameter Store RotationSchedule 리소스를 지정하십시오. C. AWS Secrets Manager를 사용하여 비밀 리소스로 데이터베이스 암호를 생성합니다. 데이터베이스 암호를 교체할 AWS Lambda 함수 리소스를 생성합니다. Amazon EventBridge 예약 규칙 리소스를 생성하여 90일마다 Lambda 함수 암호 교체를 트리거합니다. D. AWS Systems Manager Parameter Store를 사용하여 SecureString 파라미터 유형으로 데이터베이스 암호를 생성합니다. 90일마다 데이터베이스 암호를 자동으로 교체하도록 AWS AppSync DataSource 리소스를 지정합니다. 한 회사가 10개의 새 도메인 이름을 등록했습니다. 회사는 온라인 마케팅을 위해 도메인을 사용합니다. 회사는 온라인 방문자를 각 도메인의 특정 URL로 리디렉션하는 솔루션이 필요합니다. 모든 도메인 및 대상 URL은 JSON 문서에 정의됩니다. 모든 DNS 레코드는 Amazon Route 53에서 관리합니다. 솔루션 설계자는 HTTP 및 HTTPS 요청을 수락하는 리디렉션 서비스를 구현해야 합니다. 솔루션 아키텍트는 최소한의 운영 노력으로 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (3개를 선택하세요.). A. Amazon EC2 인스턴스에서 실행되는 동적 웹 페이지를 생성합니다. 리디렉션 URL을 조회하고 응답하기 위해 이벤트 메시지와 함께 JSON 문서를 사용하도록 웹 페이지를 구성합니다. B. HTTP 및 HTTPS 수신기를 포함하는 Application Load Balancer를 생성합니다. C. 이벤트 메시지와 함께 JSON 문서를 사용하여 리디렉션 URL을 조회하고 응답하는 AWS Lambda 함수를 생성합니다. D. 사용자 지정 도메인과 함께 Amazon API Gateway API를 사용하여 AWS Lambda 함수를 게시합니다. E. Amazon CloudFront 배포를 생성합니다. Lambda@Edge 함수를 배포합니다 . F. AWS Certificate Manager(ACM)를 사용하여 SSL 인증서를 생성합니다. 도메인을 주체 대체 이름으로 포함합니다. 글로벌 사무소가 있는 회사에는 단일 AWS 리전에 대한 단일 1Gbps AWS Direct Connect 연결이 있습니다. 회사의 온프레미스 네트워크는 연결을 사용하여 AWS 클라우드에 있는 회사 리소스와 통신합니다. 연결에는 단일 VPC에 연결되는 단일 프라이빗 가상 인터페이스가 있습니다. 솔루션 설계자는 동일한 리전에서 중복 Direct Connect 연결을 추가하는 솔루션을 구현해야 합니다. 솔루션은 또한 회사가 다른 지역으로 확장함에 따라 동일한 Direct Connect 연결 쌍을 통해 다른 지역에 대한 연결을 제공해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. Direct Connect 게이트웨이를 프로비저닝합니다. 기존 연결에서 기존 프라이빗 가상 인터페이스를 삭제합니다. 두 번째 Direct Connect 연결을 만듭니다. 각 연결에서 새 프라이빗 가상 인터페이스를 생성하고 두 프라이빗 가상 인터페이스를 모두 Direct Connect 게이트웨이에 연결합니다. Direct Connect 게이트웨이를 단일 VPC에 연결합니다. B. 기존 프라이빗 가상 인터페이스를 유지합니다. 두 번째 Direct Connect 연결을 만듭니다. 새 연결에서 새 프라이빗 가상 인터페이스를 생성하고 새 프라이빗 가상 인터페이스를 단일 VPC에 연결합니다. C. 기존 개인 가상 인터페이스를 유지합니다. 두 번째 Direct Connect 연결을 만듭니다. 새 연결에서 새 퍼블릭 가상 인터페이스를 생성하고 새 퍼블릭 가상 인터페이스를 단일 VPC에 연결합니다. D. Transit 게이트웨이를 프로비저닝합니다. 기존 연결에서 기존 프라이빗 가상 인터페이스를 삭제합니다. 두 번째 Direct Connect연결을 만듭니다 각 연결에서 새 프라이빗 가상 인터페이스를 생성하고 두 프라이빗 . 가상 인터페이스를 전송 게이트웨이에 연결합니다. 전송 게이트웨이를 단일 VPC와 연결합니다. 스타트업 회사는 최신 Amazon Linux 2 AMI를 사용하여 프라이빗 서브넷에서 Amazon EC2 인스턴스 플릿을 호스팅합니다. 회사의 엔지니어는 문제 해결을 위해 인스턴스에 대한 SSH 액세스에 크게 의존합니다. 회사의 기존 아키텍처에는 다음이 포함됩니다. * 프라이빗 및 퍼블릭 서브넷이 있는 VPC와 NAT 게이트웨이. * 온프레미스 환경과의 연결을 위한 사이트 간 VPN. * 온프레미스 환경에서 직접 SSH 액세스가 가능한 EC2 보안 그룹. 회사는 SSH 액세스에 대한 보안 제어를 강화하고 엔지니어가 실행하는 명령에 대한 감사를 제공해야 합니다. 솔루션 설계자는 어떤 전략을 사용해야 합니까?. A. EC2 인스턴스 플릿에 EC2 Instance Connect를 설치하고 구성합니다. 포트 22에서 인바운드 TCP를 허용하는 EC2 인스턴스에 연결된 모든 보안 그룹 규칙을 제거합니다. 엔지니어에게 EC2 Instance Connect CLI를 사용하여 인스턴스에 원격으로 액세스하도록 조언합니다. B. 포트 22의 인바운드 TCP가 엔지니어 장치의 IP 주소로만 허용되도록 EC2 보안 그룹을 업데이트합니다. 모든 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치하고 운영 체제 감사 로그를 CloudWatch Logs로 보냅니다. C. EC2 보안 그룹을 업데이트하여 엔지니어 장치의 IP 주소에 대한 포트 22의 인바운드 TCP만 허용하도록 합니다. EC2 보안그룹 리소스 변경에 대해 AWS Config를 활성화합니다. AWS Firewall Manager를 활성화하고 규칙 변경 사항을 자동으로 수정하는 보안 그룹 정책을 적용합니다. D. AmazonSSMManagedInstanceCore 관리형 정책이 연결된 IAM 역할을 생성합니다. 모든 EC2 인스턴스에 IAM 역할을 연결합니다. 포트 22에서 인바운드 TCP를 허용하는 EC2 인스턴스에 연결된 모든 보안 그룹 규칙을 제거합니다. 엔지니어가 디바이스에 AWS Systems Manager Session Manager 플러그인을 설치하고 Systems Manager에서 시작 세션 API 호출을 사용하여 인스턴스에 원격으로 액세스하도록 합니다. 한 회사에서 AWS Elastic Beanstalk 및 Java를 사용하여 파일럿 애플리케이션을 개발했습니다. 개발 중 비용을 절감하기 위해 회사의 개발 팀은 애플리케이션을 단일 인스턴스 환경에 배포했습니다. 최근 테스트에 따르면 애플리케이션이 예상보다 더 많은 CPU를 사용하는 것으로 나타났습니다. CPU 사용률은 정기적으로 85%보다 높으며 이로 인해 일부 성능 병목 현상이 발생합니다. 솔루션 설계자는 회사가 응용 프로그램을 프로덕션으로 시작하기 전에 성능 문제를 완화해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 새 Elastic Beanstalk 애플리케이션을 생성합니다. 부하 분산 환경 유형을 선택합니다. 모든 가용 영역을 선택합니다. 최대 CPU 사용률이 5분 동안 85%를 초과하는 경우 실행될 확장 규칙을 추가합니다. B. 두 번째 Elastic Beanstalk 환경을 생성합니다. 트래픽 분할 배포 정책을 적용합니다. 평균 CPU 사용률이 5분 동안 85% 이상인 경우 새 환경으로 보낼 들어오는 트래픽의 백분율을 지정합니다. C. 부하 분산 환경 유형을 사용하도록 기존 환경의 용량 구성을 수정합니다. 모든 가용 영역을 선택합니다. 평균 CPU 사용률이 5분 동안 85%를 초과하는 경우 실행될 확장 규칙을 추가합니다. D. 부하 분산 옵션으로 환경 재구축 작업을 선택합니다. 가용 영역을 선택합니다. 총 CPU 사용률이 5분 동안 85%를 초과하는 경우 실행될 확장 규칙을 추가합니다. 회사에는 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터에서 여러 포드의 ReplicaSet으로 실행되는 애플리케이션이 있습니다. EKS 클러스터에는 여러 가용 영역에 노드가 있습니다. 응용 프로그램은 응용 프로그램의 실행 중인 모든 인스턴스에서 액세스할 수 있어야 하는 많은 작은 파일을 생성합니다. 회사는 파일을 백업하고 1년 동안 백업을 보관해야 합니다. 가장 빠른 스토리지 성능을 제공하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 파일 시스템과 클러스터의 Amazon Elastic File System(Amazon EFS) EKS 노드를 포함하는 각 서브넷에 대한 탑재 대상을 생성합니다. 파일 시스템을 마운트하도록 ReplicaSet를 구성합니다. 파일 시스템에 파일을 저장하도록 애플리케이션에 지시합니다. 데이터 사본을 백업하고 1년 동안 보관하도록 AWS Backup을 구성합니다. B. Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. EBS 다중 연결 기능을 활성화합니다. EBS 볼륨을 마운트하도록 ReplicaSet를 구성합니다. EBS 볼륨에 파일을 저장하도록 애플리케이션에 지시합니다. 데이터 사본을 백업하고 1년 동안 보관하도록 AWS Backup을 구성합니다. C. Amazon S3 버킷을 생성합니다. S3 버킷을 마운트하도록 ReplicaSet를 구성합니다. S3 버킷에 파일을 저장하도록 애플리케이션에 지시합니다. 데이터 사본을 유지하도록 S3 버전 관리를 구성합니다. 1년 후 객체를 삭제하도록 S3 수명 주기 정책을 구성합니다. D. 실행 중인 각 애플리케이션 포드에서 사용 가능한 스토리지를 사용하여 파일을 로컬에 저장하도록 ReplicaSet를 구성합니다.타사 도구를 사용하여 1년 동안 EKS 클러스터를 백업합니다. 회사는 Amazon EC2 인스턴스 플릿에서 프록시 서버를 운영합니다. 다른 국가의 파트너는 프록시 서버를 사용하여 회사의 기능을 테스트합니다. EC2 인스턴스는 VPC에서 실행 중이며 인스턴스는 인터넷에 액세스할 수 있습니다. 회사의 보안 정책에 따라 파트너는 회사가 소유한 도메인에서만 리소스에 액세스할 수 있습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 허용된 도메인이 포함된 Amazon Route 53 Resolver DNS 방화벽 도메인 목록을 생성합니다. 모든 요청을 차단하는 높은 숫자 값을 가진 규칙으로 DNS 방화벽 규칙 그룹을 구성합니다. 허용 목록의 도메인에 대한 요청을 허용하는 낮은 숫자 값을 갖는 규칙을 구성합니다. 규칙 그룹을 VPC와 연결합니다. B. 허용된 도메인이 포함된 Amazon Route 53 Resolver DNS 방화벽 도메인 목록을 생성합니다. Route 53 아웃바운드 엔드포인트를 구성합니다. 아웃바운드 엔드포인트를 VPC와 연결합니다. 도메인 목록을 아웃바운드 엔드포인트와 연결합니다. C. 허용된 도메인과 일치하도록 Amazon Route 53 트래픽 흐름 정책을 생성합니다. Route 53 Resolver와 일치하는 요청을 전달하도록 트래픽 흐름 정책을 구성합니다. 트래픽 흐름 정책을 VPC와 연결합니다. D. Amazon Route 53 아웃바운드 엔드포인트를 생성합니다. 아웃바운드 엔드포인트를 VPC와 연결합니다. 허용된 도메인에 대한 요청을 아웃바운드 엔드포인트로 전달하도록 Route 53 트래픽 흐름 정책을 구성합니다. 트래픽 흐름 정책을 VPC와 연결합니다. 한 회사에 단일 AWS 리전의 5개 Amazon EC2 인스턴스에서 실행해야 하는 새로운 애플리케이션이 있습니다. 애플리케이션은 애플리케이션이 실행될 모든 EC2 인스턴스 간에 높은 처리량과 낮은 지연 시간의 네트워크 연결이 필요합니다. 응용 프로그램이 내결함성이 있어야 한다는 요구 사항은 없습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 5개의 새로운 EC2 인스턴스를 클러스터 배치 그룹으로 시작합니다. EC2 인스턴스 유형이 향상된 네트워킹을 지원하는지 확인합니다. B. 동일한 가용 영역에서 Auto Scaling 그룹으로 5개의 새로운 EC2 인스턴스를 시작합니다. 각 EC2 인스턴스에 추가 탄력적네트워크 인터페이스를 연결합니다. C. 5개의 새로운 EC2 인스턴스를 파티션 배치 그룹으로 시작합니다. EC2 인스턴스 유형이 향상된 네트워킹을 지원하는지 확인합니다. D. 5개의 새로운 EC2 인스턴스를 분산 배치 그룹으로 시작합니다. 각 EC2 인스턴스에 추가 탄력적 네트워크 인터페이스를 연결합니다. 회사는 Amazon Elastic File System(Amazon EF)의 백업 비용을 최적화해야 합니다. 솔루션 설계자는 EFS 백업을 위해 AWS Backup에서 이미 백업 계획을 구성했습니다. 백업 계획에는 7일 후에 EFS 백업을 콜드 스토리지로 전환하고 추가 90일 동안 백업을 유지하는 수명 주기 구성 규칙이 포함되어 있습니다. 한 달 후 회사는 EFS 스토리지 비용을 검토하고 EFS 백업 비용이 증가했음을 확인했습니다. EFS 백업 콜드 스토리지는 EFS 웜 백업 스토리지 비용의 거의 두 배를 생성합니다. 솔루션 설계자는 비용을 최적화하기 위해 무엇을 해야 합니까?. A. 1일 후 백업을 콜드 스토리지로 이동하도록 백업 규칙의 수명 주기 1 EFS 구성을 수정합니다. 백업 보존 기간을 30일로 설정합니다. B. 8일 후에 EFS 백업을 콜드 스토리지로 이동하도록 백업 규칙의 수명 주기 구성을 수정합니다. 백업 보존 기간을 30일로 설정 합니다. C. 1일 후 EFS 백업을 콜드 스토리지로 이동하도록 백업 규칙의 수명 주기 구성을 수정합니다. 백업 보존 기간을 90일로 설정합니다. D. 8일 후에 EFS 백업을 콜드 스토리지로 이동하도록 백업 규칙의 수명 주기 구성을 수정합니다. 백업 보존 기간을 98일로 설정 합니다. 한 회사가 미국에 기반을 둔 6개의 파트너와 정보를 공유하기 위해 REST API를 만들고 있습니다. 회사는 Amazon API Gateway 지역 엔드포인트를 생성했습니다. 6개 파트너는 각각 하루에 한 번씩 API에 액세스하여 일일 판매 수치를 게시합니다. 초기 배포 후 회사는 전 세계 500개의 서로 다른 IP 주소에서 발생하는 초당 1,000개의 요청을 관찰합니다. 이 회사는 이 트래픽이 봇넷에서 발생한다고 믿고 비용을 최소화하면서 API를 보호하기를 원합니다. 회사는 API 보안을 위해 어떤 접근 방식을 취해야 합니까?. A. API를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. 하루에 5개 이상의 요청을 제출하는 클라이언트를 차단하는 규칙을 사용하여 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 CloudFront 배포와 연결합니다. OAI(원본 액세스 ID)로 CloudFront를 구성하고 배포와 연결합니다. OAI만 POST 메서드를 실행할 수 있도록 API 게이트웨이를 구성합니다. B. API를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. 하루에 5개 이상의 요청을 제출하는 클라이언트를 차단하는 규칙을 사용하여 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 CloudFront 배포와 연결합니다. API 키로 채워진 CloudFront 배포에 사용자 지정 헤더를 추가합니다. POST 메서드에서 API 키를 요구하도록 API를 구성합니다.계획에 추가합니다. C. 6개의 파트너가 사용하는 IP 주소에 대한 액세스를 허용하는 규칙으로 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 API와 연결합니다. 요청 제한이 있는 리소스 정책을 생성하고 이를 API와 연결합니다. POST 메서드에서 API 키를 요구하도록 API를 구성합니다. D. 6개의 파트너가 사용하는 IP 주소에 대한 액세스를 허용하는 규칙으로 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 API와 연결합니다. 요청 제한이 있는 사용량 계획을 생성하고 API와 연결합니다. API 키를 생성하고 사용량 계획에 추가합니다. 회사는 스트리밍 시장 데이터를 수집하고 처리합니다. 데이터 속도는 일정합니다. 집계 통계를 계산하는 야간 프로세스는 완료하는데 4시간이 걸립니다. 통계 분석은 비즈니스에 중요하지 않으며 특정 실행이 실패하면 다음 반복 중에 데이터 포인트가 처리됩니다. 현재 아키텍처는 1년 예약의 Amazon EC2 예약 인스턴스 풀을 사용합니다. 이러한 EC2 인스턴스는 연결된 Amazon Elastic Block Store(Amazon EBS) 볼륨에서 스트리밍 데이터를 수집하고 저장하기 위해 상시 실행됩니다. 예약된 스크립트는 매일 밤 EC2 온디맨드 인스턴스를 시작하여 야간 처리를 수행합니다. 인스턴스는 수집 서버의 NFS 공유에서 저장된 데이터에 액세스합니다. 스크립트는 처리가 완료되면 인스턴스를 종료합니다. 예약 인스턴스 예약이 만료됩니다. 회사는 새로운 예약을 구매할지 아니면 새로운 디자인을 구현할지 결정해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 저장하도록 수집 프로세스를 업데이트합니다. 예약된 스크립트를 사용하여 매일 밤 EC2 온디맨드 인스턴스 플릿을 시작하여 S3 데이터의 일괄 처리를 수행합니다. 처리가 완료되면 인스턴스를 종료하도록 스크립트를 구성하십시오. B. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 저장하도록 수집 프로세스를 업데이트합니다. 스팟 인스턴스와 함께 AWS Batch를 사용하여 온디맨드 가격의 50%인 최대 스팟 가격으로 야간 처리를 수행합니다. C. Network LoadBalancer 뒤에 3년 예약이 있는 EC2 예약 인스턴스 플릿을 사용하도록 수집 프로세스를 업데이트합니다. 스팟 인스턴스와 함께 AWS Batch를 사용하여 온디맨드 가격의 50%인 최대 스팟 가격으로 야간 처리를 수행합니다. D. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon Redshift에 저장하도록 수집 프로세스를 업데이트합니다. Amazon EventBridge를 사용하여 AWS Lambda 함수가 매일 밤 실행되어 Amazon Redshift를 쿼리하여 일일 통계를 생성하도록 예약합니다. 비디오 처리 회사는 회사의 온프레미스 네트워크 연결 스토리지 시스템에 수천 개의 파일로 저장된 600TB의 압축 데이터를 사용하여 기계 학습(ML) 모델을 구축하려고 합니다. 이 회사는 ML 실험에 필요한 컴퓨팅 리소스가 온프레미스에 없으며 AWS를 사용하려고 합니다. 회사는 3주 이내에 AWS로 데이터 전송을 완료해야 합니다. 데이터 전송은 일회성 전송입니다. 데이터는 전송 중에 암호화되어야 합니다. 회사 인터넷 연결의 측정된 업로드 속도는 100Mbps입니다. 여러 부서가 연결을 공유합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. AWS Management Console을 사용하여 여러 AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. 대상 S3 버킷으로 디바이스를 구성합니다. 데이터를 장치에 복사합니다. 기기를 AWS로 반송합니다. B. 회사 위치와 가장 가까운 AWS 리전 간에 10Gbps AWS Direct Connect 연결을 설정합니다. VPN 연결을 통해 데이터를 리전으로 전송하여 Amazon S3에 데이터를 저장합니다. C. 온프레미스 네트워크 연결 스토리지와 가장 가까운 AWS 리전 간에 VPN 연결을 생성합니다. VPN 연결을 통해 데이터를 전송합니다. D. 온프레미스에 AWS Storage Gateway 파일 게이트웨이를 배포합니다. 대상 S3 버킷으로 파일 게이트웨이를 구성합니다. 파일 게이트웨이에 데이터를 복사합니다. 회사는 AWS 클라우드에서 컨테이너화된 애플리케이션을 실행하고 있습니다. 애플리케이션이 Amazon EC2 인스턴스 세트에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 실행 중입니다. EC2 인스턴스는 Auto Scaling 그룹에서 실행됩니다. 이 회사는 Amazon Elastic Container Registry(Amazon ECR)를 사용하여 컨테이너 이미지를 저장합니다. 새 이미지 버전이 업로드되면 새 이미지 버전에 고유한 태그가 부여됩니다. 회사는 일반적인 취약점 및 노출에 대해 새 이미지 버전을 검사하는 솔루션이 필요합니다. 솔루션은 심각도가 높거나 심각도가 높은 결과가 있는 새 이미지 태그를 자동으로 삭제해야 합니다. 솔루션은 또한 이러한 삭제가 발생하면 개발 팀에 알려야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 리포지토리에서 푸시할 때 스캔을 구성합니다. 심각도가 높거나 심각도가 높은 결과가 있는 이미지에 대한 스캔이 완료되면 Amazon EventBridge를 사용하여 AWS Step Functions 상태 머신을 호출합니다. Step Functions 상태 시스템을 사용하여 해당 이미지의 이미지 태그를 삭제하고 Amazon Simple Notification Service(Amazon SNS)를 통해 개발 팀에 알립니다. B. 리포지토리에서 푸시할 때 스캔을 구성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열로 푸시되도록 스캔 결과를 구성합니다. 새 메시지가 SQS 대기열에 추가되면 AWS Lambda 함수를 호출합니다. Lambda 함수를 사용하여 심각도가 높거나 심각도가 높은 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Email Service (Amazon SES)를 사용하여 개발 팀에 알립니다. C. 매시간 수동 이미지 스캔을 시작하도록 AWS Lambda 함수를 예약합니다. 스캔이 완료되면 다른 Lambda 함수를 호출하도록 Amazon EventBridge를 구성합니다. 두 번째 Lambda 함수를 사용하여 중요 또는 높은 심각도 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Notification Service(Amazon SNS)를 사용하여 개발 팀에 알립니다. D. 리포지토리에서 주기적인 이미지 스캔을 구성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 추가 할 스캔 결과를 구성합니다. 새 메시지가 SQS 대기열에 추가되면 AWS Step Functions 상태 시스템을 호출합니다. Step Functions 상태 시스템을 사용하여 중요하거나 높은 심각도 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Email Service(Amazon SES)를 사용하여 개발 팀에 알립니다. 디지털 마케팅 회사에는 다양한 팀에 속한 여러 AWS 계정이 있습니다. 크리에이티브 팀은 AWS 계정의 Amazon S3 버킷을 사용하여 회사 마케팅 캠페인의 콘텐츠로 사용되는 이미지와 미디어 파일을 안전하게 저장합니다. 크리에이티브 팀은 전략 팀이 개체를 볼 수 있도록 전략 팀과 S3 버킷을 공유하려고 합니다. 솔루션 설계자가 전략 계정에서 이름이 strategy_reviewer인 IAM 역할을 생성했습니다. 또한 솔루션 설계자는 Creative 계정에 사용자 지정 AWS Key Management Service(AWS KMS) 키를 설정하고 키를 S3 버킷과 연결했습니다. 그러나 전략 계정의 사용자가 IAM 역할을 맡고 S3 버킷의 객체에 액세스하려고 하면 액세스 거부 오류가 발생합니다. 솔루션 설계자는 전략 계정의 사용자가 버킷에 액세스할 수 있는지 확인해야 S3 합니다. 솔루션은 이러한 사용자에게 필요한 최소한의 권한만 제공해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (3개를 선택하세요.). A. S3 버킷에 대한 읽기 권한을 포함하는 버킷 정책을 생성합니다. 버킷 정책의 주체를 전략 계정의 계정 ID로 설정합니다. B. S3 버킷에 대한 전체 권한을 부여하고 사용자 지정 KMS 키에 대한 암호 해독 권한을 부여하도록 strategy_reviewer IAM 역할을 업데이트합니다. C. Creative 계정에서 사용자 지정 KMS 키 정책을 업데이트하여 strategy_reviewer IAM 역할에 암호 해독 권한을 부여합니다. D. S3 버킷에 대한 읽기 권한을 포함하는 버킷 정책을 생성합니다. 버킷 정책의 주체를 익명 사용자로 설정합니다. E. Creative 계정에서 사용자 지정 KMS 키 정책을 업데이트하여 strategy_reviewer IAM 역할에 암호화 권한을 부여합니다. F. S3 버킷에 대한 읽기 권한을 부여하고 사용자 지정 KMS 키에 대한 암호 해독 권한을 부여하도록 strategy_reviewer IAM 역할을 업데이트합니다. 회사는 사용자가 문서를 업로드하는 전자 문서 관리 시스템을 구축하고 있습니다. 애플리케이션 스택은 완전히 서버리스이며 eu-central-1 리전의 AWS에서 실행됩니다. 이 시스템에는 Amazon S3를 원본으로 사용하여 Amazon CloudFront 배포를 사용하는 웹 애플리케이션이 포함되어 있습니다. 웹 애플리케이션은 Amazon API Gateway 지역 엔드포인트와 통신합니다. API Gateway API는 Amazon Aurora Serverless 데이터베이스에 메타데이터를 저장하고 문서를 S3 버킷에 저장하는 AWS Lambda 함수를 호출합니다. 이 회사는 꾸준히 성장하고 있으며 가장 큰 고객과 개념 증명을 완료했습니다. 회사는 유럽 밖에서 대기 시간을 개선해야 합니다. 이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (두 가지를 선택하세요.). A. S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 웹 애플리케이션이 Transfer Acceleration 서명 URL을 사용하는지 확인하십시오. B. AWS Global Accelerator에서 액셀러레이터를 생성합니다. 가속기를 CloudFront 배포에 연결합니다. C. API Gateway 지역 엔드포인트를 엣지 최적화 엔드포인트로 변경합니다. D. 전 세계에 흩어져 있는 다른 두 위치에 전체 스택을 프로비저닝합니다. Aurora 서버리스 클러스터에서 글로벌 데이터베이스를 사용하십시오. E. Lambda 함수와 Aurora Serverless 데이터베이스 사이에 Amazon RDS 프록시를 추가합니다. 대기업의 솔루션 설계자는 AWS Organizations의 조직 내 모든 AWS 계정에서 인터넷으로 나가는 아웃바운드 트래픽에 대한 네트워크 보안을 설정해야 합니다. 조직에는 100개가 넘는 AWS 계정이 있으며 계정은 중앙 집중식 AWS Transit Gateway를 사용하여 서로 라우팅됩니다. 각 계정에는 인터넷으로의 아웃바운드 트래픽을 위한 인터넷 게이트웨이와 NAT 게이트웨이가 모두 있습니다. 회사는 단일 AWS 리전에만 리소스를 배포합니다. 회사는 조직의 모든 AWS 계정에 대해 인터넷으로 향하는 모든 아웃바운드 트래픽에 대해 중앙에서 관리되는 규칙 기반 필터링을 추가할 수 있는 기능이 필요합니다. 아웃바운드 트래픽의 최대 부하는 각 가용 영역에서 25Gbps를 초과하지 않습니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 인터넷으로의 아웃바운드 트래픽을 위한 새 VPC를 생성합니다. 기존 전송 게이트웨이를 새 VPC에 연결합니다. 새 NAT 게이트웨이를 구성합니다. 리전의 모든 가용 영역에서 규칙 기반 필터링을 위해 오픈 소스 인터넷 프록시를 실행하는 Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성합니다. 프록시의 Auto Scaling 그룹을 가리키도록 모든 기본 경로를 수정합니다. B. 인터넷으로의 아웃바운드 트래픽을 위한 새 VPC를 생성합니다. 기존 전송 게이트웨이를 새 VPC에 연결합니다. 새 NAT 게이트웨이를 구성합니다. 규칙 기반 필터링을 위해 AWS Network Firewall 방화벽을 사용하십시오. 각 가용 영역에서 네트워크 방화벽 엔드포인트를 생성합니다. 네트워크 방화벽 끝점을 가리키도록 모든 기본 경로를 수정합니다. C. 각 AWS 계정에서 규칙 기반 필터링을 위한 AWS 네트워크 방화벽 방화벽을 생성합니다. 각 계정의 네트워크 방화벽 방화벽을 가리키도록 모든 기본 경로를 수정합니다. D. 각 AWS 계정에서 규칙 기반 필터링을 위해 오픈 소스 인터넷 프록시를 실행하는 네트워크 최적화 Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성합니다. 프록시의 Auto Scaling 그룹을 가리키도록 모든 기본 경로를 수정합니다. AWS 파트너 회사는 org1 이라는 조직을 사용하여 AWS Organizations에서 서비스를 구축하고 있습니다. 이 서비스를 사용하려면 파트너 회사가 org2라는 별도의 조직에 있는 고객 계정의 AWS 리소스에 액세스할 수 있어야 합니다. 회사는 API 또는 명령줄 도구를 사용하여 고객 계정에 대한 최소 권한 보안 액세스를 설정해야 합니다. org1이 org2의 리소스에 액세스하도록 허용하는 가장 안전한 방법은 무엇입니까?. A. 고객은 로그인하여 필요한 작업을 수행하기 위해 파트너사에 AWS 계정 액세스 키를 제공해야 합니다. B. 고객은 IAM 사용자를 생성하고 IAM 사용자에게 필요한 권한을 할당해야 합니다. 그런 다음 고객은 파트너 회사에 자격증명을 제공하여 로그인하고 필요한 작업을 수행해야 합니다. C. 고객은 IAM 역할을 생성하고 IAM 역할에 필요한 권한을 할당해야 합니다. 그런 다음 파트너 회사는 필요한 작업을 수행하기위해 액세스를 요청할 때 IAM 역할의 Amazon 리소스 이름(ARN)을 사용해야 합니다. D. 고객은 IAM 역할을 생성하고 IAM 역할에 필요한 권한을 할당해야 합니다. 그런 다음 파트너 회사는 필요한 작업을 수행하기위한 액세스를 요청할 때 IAM 역할의 신뢰 정책에 있는 외부 ID를 포함하여 IAM 역할의 Amazon 리소스 이름(ARN)을 사용해야 합니다. 한 교육 회사가 전 세계 대학생들이 사용하는 웹 애플리케이션을 운영하고 있습니다. 애플리케이션은 Application Load Balancer(ALB) 뒤에 있는 Auto Scaling 그룹의 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 실행됩니다. 시스템 관리자는 애플리케이션의 인증 서비스를 압도하는 로그인 시도 실패 횟수의 주간 급증을 감지합니다. 실패한 모든 로그인 시도는 매주 변경되는 약 500개의 서로 다른 IP 주소에서 시작됩니다. 솔루션 설계자는 실패한 로그인 시도가 인증 서비스에 부담을 주지 않도록 해야 합니다. 가장 운영 효율성이 높은 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Firewall Manager를 사용하여 IP 주소에서 액세스를 거부하는 보안 그룹 및 보안 그룹 정책을 생성합니다. B. 속도 기반 규칙을 사용하여 AWS WAF 웹 ACL을 생성하고 규칙 작업을 차단으로 설정합니다. 웹 ACL을 ALB에 연결합니다. C. AWS Firewall Manager를 사용하여 특정 CIDR 범위에 대한 액세스만 허용하는 보안 그룹 및 보안 그룹 정책을 생성합니다. D. IP 세트 일치 규칙을 사용하여 AWS WAF 웹 ACL을 생성하고 규칙 작업을 차단으로 설정합니다. 웹 ACL을 ALB에 연결합니다. 국제 배송 회사는 AWS에서 배송 관리 시스템을 호스팅합니다. 드라이버는 시스템을 사용하여 배송 확인을 업로드합니다. 확인에는 수령인의 서명 또는 수령인과 함께 패키지 사진이 포함됩니다. 운전자의 핸드헬드 장치는 FTP를 통해 서명과 사진을 단일 Amazon EC2 인스턴스에 업로드합니다. 각 핸드헬드 장치는 로그인한 사용자를 기반으로 디렉토리에 파일을 저장하며 파일 이름은 배송 번호와 일치합니다. 그런 다음 EC2 인스턴스는 배달 정보를 가져오기 위해 중앙 데이터베이스를 쿼리한 후 파일에 메타데이터를 추가합니다. 그런 다음 파일은 보관을 위해 Amazon S3에 배치됩니다. 회사가 확장됨에 따라 운전자는 시스템이 연결을 거부하고 있다고 보고합니다. 이러한 문제에 대한 응답으로 연결 끊김 및 메모리 문제로 인해 FTP 서버에 문제가 발생했습니다. 시스템 엔지니어는 cron 작업을 예약하여 30분마다 EC2 인스턴스를 재부팅합니다. 청구 팀은 파일이 아카이브에 항상 있는 것은 아니며 중앙 시스템이 항상 업데이트되는 것은 아니라고 보고합니다. 솔루션 설계자는 아카이브가 항상 파일을 수신하고 시스템이 항상 업데이트되도록 확장성을 최대화하는 솔루션을 설계해야 합니다. 핸드헬드 장치는 수정할 수 없으므로 회사에서 새 애플리케이션을 배포할 수 없습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 기존 EC2 인스턴스의 AMI를 생성합니다. Application Load Balancer 뒤에 EC2 인스턴스의 Auto Scaling 그룹을 생성합니다. 최소 3개의 인스턴스를 포함하도록 Auto Scaling 그룹을 구성합니다. B. AWS Transfer Family를 사용하여 파일을 Amazon Elastic File System(Amazon EFS)에 배치하는 FTP 서버를 생성합니다. EFS 볼륨을 기존 EC2 인스턴스에 마운트합니다. EC2 인스턴스가 파일 처리를 위한 새 경로를 가리킵니다. C. AWS Transfer Family를 사용하여 파일을 Amazon S3에 배치하는 FTP 서버를 생성합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 S3 이벤트 알림을 사용하여 AWS Lambda 함수를 호출합니다. 메타데이터를 추가하고 전달 시스템을 업데이트하도록 Lambda 함수를 구성합니다. D. 파일을 Amazon S3에 직접 배치하도록 핸드헬드 장치를 업데이트합니다. Amazon Simple Queue Service(Amazon SQS)를 통해 S3 이벤트 알림을 사용하여 AWS Lambda 함수를 호출합니다. 메타데이터를 추가하고 전달 시스템을 업데이트하도록 Lambda 함수를 구성합니다. 회사에서 Amazon RDS for MySQL 데이터베이스를 사용하여 데이터를 저장하는 중요한 애플리케이션을 실행하고 있습니다. RDS DB 인스턴스는 다중 AZ 모드로 배포됩니다. 최근 RDS 데이터베이스 장애 조치 테스트로 인해 애플리케이션이 40초 동안 중단되었습니다. 솔루션 설계자는 중단 시간을 20초 미만으로 줄이기 위한 솔루션을 설계해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (3개를 선택하세요.). A. 데이터베이스 앞에서 Amazon ElastiCache for Memcached 사용합니다. B. 데이터베이스 앞에서 Redis용 Amazon ElastiCache 사용합니다. C. 데이터베이스 앞에서 RDS Proxy를 사용합니다. D. 데이터베이스를 Amazon Aurora MySQL로 마이그레이션합니다. E. Amazon Aurora 복제본을 생성합니다. F. RDS for MySQL 읽기 전용 복제본 생성합니다. 회사는 온프레미스 데이터 센터에서 2계층 웹 기반 애플리케이션을 실행하고 있습니다. 애플리케이션 계층은 상태 저장 애플리케이션을 실행하는 단일 서버로 구성됩니다. 애플리케이션은 별도의 서버에서 실행되는 PostgreSQL 데이터베이스에 연결됩니다. 애플리케이션의 사용자 기반이 크게 성장할 것으로 예상되므로 회사는 애플리케이션과 데이터베이스를 AWS로 마이그레이션하고 있습니다. 이 솔루션은 Amazon Aurora PostgreSQL, Amazon EC2 Auto Scaling 및 Elastic Load Balancing을 사용합니다. 애플리케이션 및 데이터베이스 계층을 확장할 수 있는 일관된 사용자 경험을 제공하는 솔루션은 무엇입니까?. A. Aurora 복제본에 대해 Aurora Auto Scaling을 활성화합니다. 최소 미결 요청 라우팅 알고리즘 및 고정 세션이 활성화된 Network Load Balancer를 사용하십시오. B. Aurora 작성자에 대해 Aurora Auto Scaling을 활성화합니다. 라운드 로빈 라우팅 알고리즘 및 고정 세션이 활성화된 Application Load Balancer를 사용합니다. C. Aurora 복제본에 대해 Aurora Auto Scaling을 활성화합니다. 라운드 로빈 라우팅 및 고정 세션이 활성화된 Application Load Balancer를 사용하십시오. D. Aurora 작성자에 대해 Aurora Scaling을 활성화합니다. 최소 미결 요청 라우팅 알고리즘 및 고정 세션이 활성화된 Network Load Balancer를 사용하십시오. 회사는 단일 AWS 리전에서 서버리스 애플리케이션을 실행합니다. 애플리케이션은 외부 URL에 액세스하고 해당 사이트에서 메타데이터를 추출합니다. 회사는 Amazon Simple Notification Service(Amazon SNS) 주제를 사용하여 URL을 Amazon Simple Queue Service(Amazon SQS) 대기열에 게시합니다. AWS Lambda 함수는 대기열을 이벤트 소스로 사용하고 대기열의 URL을 처리합니다. 결과는 Amazon S3 버킷에 저장됩니다. 회사는 사이트 현지화의 가능한 차이점을 비교하기 위해 다른 지역에서 각 URL을 처리하려고 합니다. URL은 기존 리전에서 게시되어야 합니다. 결과는 현재 리전의 기존 S3 버킷에 기록되어야 합니다. 이러한 요구 사항을 충족하는 다중 리전 배포를 생성하는 변경 조합은 무엇입니까? (두 가지를 선택하세요.). A. Lambda 함수와 함께 SQS 대기열을 다른 지역에 배포합니다. B. 각 리전의 SNS 주제를 SQS 대기열에 구독합니다. C. 각 리전의 SQS 대기열을 SNS 주제에 구독합니다. D. 각 리전의 SNS 주제에 URL을 게시하도록 SQS 대기열을 구성합니다. E. SNS 주제와 Lambda 함수를 다른 지역에 배포합니다. 한 회사가 클라우드에서 온프레미스 주문 처리 플랫폼을 리팩토링하고 AWS 있습니다. 이 플랫폼에는 여러 VM에서 호스팅되는 웹 프런트 엔드, 프런트 엔드를 백엔드에 연결하는 RabbitMQ, 컨테이너화된 백엔드 시스템을 실행하여 주문을 처리하는 Kubernetes 클러스터가 포함됩니다. 회사는 응용 프로그램을 크게 변경하지 않으려고 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 웹 서버 VM의 AMI를 생성합니다. AMI 및 Application Load Balancer를 사용하는 Amazon EC2 Auto Scaling 그룹을 생성합니다. 온프레미스 메시징 대기열을 대체하도록 Amazon MQ를 설정합니다. 주문 처리 백엔드를 호스팅하도록 Amazon Elastic Kubernetes Service(Amazon EKS)를 구성합니다. B. 웹 서버 환경을 모방하기 위해 사용자 지정 AWS Lambda 런타임을 생성합니다. 프런트 엔드 웹 서버를 대체할 Amazon API Gateway API를 생성합니다. 온프레미스 메시징 대기열을 대체하도록 Amazon MQ를 설정합니다. 주문 처리 백엔드를 호스팅하도록 Amazon Elastic Kubernetes Service(Amazon EKS)를 구성합니다. C. 웹 서버 VM의 AMI를 생성합니다. AMI 및 Application Load Balancer를 사용하는 Amazon EC2 Auto Scaling 그룹을 생성합니다. 온프레미스 메시징 대기열을 대체하도록 Amazon MQ를 설정합니다. 다양한 EC2 인스턴스 플릿에 Kubernetes를 설치하여 주문 처리 백엔드를 호스팅합니다. D. 웹 서버 VM의 AMI를 생성합니다. AMI 및 Application Load Balancer를 사용하는 Amazon EC2 Auto Scaling 그룹을 생성합니다. 온프레미스 메시징 대기열을 대체할 Amazon Simple Queue Service(Amazon SQS) 대기열을 설정합니다. 주문 처리 백엔드를 호스팅하도록 Amazon Elastic Kubernetes Service(Amazon EKS)를 구성합니다. 회사는 웹 호스팅, 데이터베이스 API 서비스 및 비즈니스 로직을 위해 현재 로드 밸런싱된 Amazon EC2 인스턴스 플릿이 있는 소매 주문 웹 애플리케이션을 리팩터링하려고 합니다. 회사는 실패한 주문을 유지하는 동시에 운영 비용을 최소화하는 메커니즘을 갖춘 분리되고 확장 가능한 아키텍처를 만들어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 데이터베이스 API 서비스를 위해 Amazon API Gateway와 함께 웹 호스팅에 Amazon S3를 사용하십시오. 주문 대기열에 Amazon Simple Queue Service(Amazon SQS)를 사용합니다. 실패한 주문을 유지하기 위해 Amazon SQS 긴 폴링과 함께 비즈니스 로직에 Amazon Elastic Container Service(Amazon ECS)를 사용합니다. B. 데이터베이스 API 서비스를 위해 Amazon API Gateway와 함께 웹 호스팅에 AWS Elastic Beanstalk를 사용합니다. 주문 대기열에 Amazon MQ를 사용합니다. 실패한 주문을 유지하려면 Amazon S3 Glacier Deep Archive와 함께 비즈니스 로직에 AWS Step Functions를 사용하십시오. C. 데이터베이스 API 서비스를 위해 AWS AppSync와 함께 웹 호스팅에 Amazon S3를 사용하십시오. 주문 대기열에 Amazon Simple Queue Service(Amazon SQS)를 사용합니다. 실패한 주문을 유지하기 위해 Amazon SQS 데드레터 대기열과 함께 비즈니스 로직에 AWS Lambda를 사용합니다. D. 데이터베이스 API 서비스를 위해 AWS AppSync와 함께 웹 호스팅에 Amazon Lightsail을 사용합니다. 주문 대기열에 Amazon Simple Email Service(Amazon SES)를 사용합니다. 실패한 주문을 유지하기 위해 Amazon OpenSearch Service와 함께 비즈니스 로직에 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다. 회사는 개발용 AWS 계정이 몇 개 있고 프로덕션 애플리케이션을 AWS로 이동하려고 합니다. 회사는 유휴 상태의 Amazon Elastic Block Store(Amazon EBS) 암호화를 현재 프로덕션 계정과 향후 프로덕션 계정에만 적용해야 합니다. 이 회사는 빌트인 청사진과 가드레일을 포함하는 솔루션이 필요합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. AWS CloudFormation StackSets를 사용하여 프로덕션 계정에 AWS Config 규칙을 배포합니다. B. 기존 개발자 계정에서 새 AWS Control Tower 랜딩 존을 생성합니다. 계정에 대한 OU를 만듭니다. 프로덕션 및 개발 OU에 각각 프로덕션 및 개발 계정을 추가합니다. C. 회사의 마스터 계정에서 새로운 AWS Control Tower 랜딩 존을 생성합니다. 프로덕션 및 개발 OU에 프로덕션 및 개발 계정을 추가합니다. 각기. D. AWS Organizations에서 조직에 가입하도록 기존 계정을 초대합니다. 준수를 보장하기 위해 SCP를 생성합니다. E. 마스터 계정에서 가드레일을 생성하여 EBS 암호화를 감지합니다. F. 프로덕션 에 OU 대한 가드레일을 생성하여 EBS 암호화를 감지합니다. 대규모 교육 회사는 최근 여러 대학에서 내부 애플리케이션에 대한 액세스를 제공하기 위해 Amazon Workspaces를 도입했습니다. 이 회사는 Windows File Server 파일 시스템용 Amazon FSx에 사용자 프로필을 저장하고 있습니다. 파일 시스템은 DNS 별칭으로 구성되며 자체 관리되는 Active Directory에 연결됩니다. 더 많은 사용자가 작업 공간을 사용하기 시작하면 로그인 시간이 허용할 수 없는 수준으로 증가합니다. 조사 결과 파일 시스템의 성능 저하가 드러났습니다. 회사는 처리량이 16MBps인 HDD 스토리지에 파일 시스템을 만들었습니다. 솔루션 설계자는 정의된 유지 관리 기간 동안 파일 시스템의 성능을 개선해야 합니다. 최소한의 관리 노력으로 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까?. A. AWS Backup을 사용하여 파일 시스템의 특정 시점 백업을 생성합니다. 백업을 새 FSx for Windows 파일 서버 파일 시스템으로 복원합니다. 스토리지 유형으로 SSD를 선택합니다. 처리 용량으로 32MBps를 선택합니다. 백업 및 복원 프로세스가 완료되면 그에 따라 DNS 별칭을 조정합니다. 원본 파일 시스템을 삭제합니다. B. 파일 시스템에서 사용자 연결을 끊습니다. Amazon FSx 콘솔에서 처리 용량을 32MBps로 업데이트합니다. 스토리지 유형을 SSD로 업데이트합니다. 사용자를 파일 시스템에 다시 연결합니다. C. 새로운 Amazon EC2 인스턴스에 AWS DataSync 에이전트를 배포합니다. 작업을 만듭니다. 기존 파일 시스템을 소스 위치로 구성합니다. SSD 스토리지 및 32MBps의 처리량을 대상 위치로 사용하여 새로운 FSx for Windows File Server 파일 시스템을 구성합니다. 작업을 예약합니다. 작업이 완료되면 그에 따라 DNS 별칭을 조정합니다. 원본 파일 시스템을 삭제합니다. D. Windows PowerShell 명령을 사용하여 기존 파일 시스템에서 섀도 복사본을 활성화합니다. 파일 시스템의 지정 시간 백업을 생성하도록 섀도 복사 작업을 예약합니다. 이전 버전을 복원하려면 선택하십시오. SSD 스토리지 및 32MBps의 처리량으로 새로운 FSx for Windows File Server 파일 시스템을 만듭니다. 복사 작업이 완료되면 DNS 별칭을 조정합니다. 원본 파일 시스템을 삭제합니다. 회사는 환경 데이터를 처리합니다. 이 회사는 센서를 설치하여 도시의 여러 지역에서 지속적으로 데이터 스트림을 제공합니다. 데이터는 JSON 형식으로 제공됩니다. 이 회사는 AWS 솔루션을 사용하여 저장을 위한 고정 스키마가 필요하지 않은 데이터베이스로 데이터를 전송하려고 합니다. 데이터는 실시간으로 전송되어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon Redshift로 보냅니다. B. Amazon Kinesis Data Streams를 사용하여 데이터를 Amazon DynamoDB로 보냅니다. C. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 Amazon Aurora로 보냅니다. D. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon Keyspaces(Apache Cassandra용)로 보냅니다. 회사에서 AWS Organizations를 사용하여 여러 AWS 계정을 관리하고 있습니다. 보안을 위해 회사는 모든 조직 구성원 계정에서 타사 알림 시스템과 통합할 수 있는 Amazon Simple Notification Service(Amazon SNS) 항목을 생성해야 합니다. 솔루션 설계자는 AWS CloudFormation 템플릿을 사용하여 CloudFormation 스택의 배포를 자동화하기 위한 SNS 주제 및 스택 세트를 생성했습니다. 조직에서 신뢰할 수 있는 액세스가 활성화되었습니다. 모든 AWS 계정에 CloudFormation StackSets를 배포하려면 솔루션 설계자가 무엇을 해야 합니까?. A. 조직 구성원 계정에서 스택 세트를 생성합니다. 서비스 관리 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 드리프트 감지를 사용합니다. B. 조직 구성원 계정에서 스택을 생성합니다. 셀프 서비스 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 자동 배포를 활성화합니다. C. 조직 마스터 계정에서 스택 세트를 생성합니다. 서비스 관리 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 자동 배포를 활성화합니다. D. 조직 마스터 계정에서 스택을 생성합니다. 서비스 관리 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 드리프트 감지를 활성화합니다. 회사에 함수로 호스팅되는 비동기 AWS Lambda HTTP 애플리케이션이 있습니다. 퍼블릭 Amazon API Gateway 엔드포인트는 Lambda 함수를 호출합니다. Lambda 함수와 API 게이트웨이 엔드포인트는 us-east-1 리전에 상주합니다. 솔루션 설계자는 다른 AWS 리전에 대한 장애 조치를 지원하도록 애플리케이션을 재설계해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. us-west-2 리전에서 API 게이트웨이 엔드포인트를 생성하여 트래픽을 us-east-1의 Lambda 함수로 보냅니다. 장애 조치 라우팅 정책을 사용하여 두 API Gateway 엔드포인트에 대한 트래픽을 라우팅하도록 Amazon Route 53을 구성합니다. B. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. Lambda 함수 대신 SQS 대기열로 트래픽을 보내도록 API Gateway를 구성합니다. 처리를 위해 대기열에서 메시지를 가져오도록 Lambda 함수를 구성합니다. C. us-west-2 지역에 Lambda 함수를 배포합니다. us-west-2에서 API 게이트웨이 엔드포인트를 생성합니다. us-west-2의 Lambda 함수에 대한 직접 트래픽 10개입니다. 두 API 게이트웨이 엔드포인트에서 트래픽을 관리하도록 AWS Global Accelerator 및 Application Load Balancer를 구성합니다. D. Lambda 함수와 API 게이트웨이 엔드포인트를 us-west-2 리전에 배포합니다. 장애 조치 라우팅 정책을 사용하여 두 API Gateway 엔드포인트에 대한 트래픽을 라우팅하도록 Amazon Route 53을 구성합니다. 회사는 AWS 클라우드에서 웹 애플리케이션을 실행하고 있습니다. 애플리케이션은 Amazon EC2 인스턴스 세트에서 생성되는 동적 콘텐츠로 구성됩니다. EC2 인스턴스는 Application Load Balancer(ALB)의 대상 그룹으로 구성된 Auto Scaling 그룹에서 실행됩니다. 이 회사는 Amazon CloudFront 배포를 사용하여 애플리케이션을 전 세계에 배포하고 있습니다. CloudFront 배포는 ALB를 오리진으로 사용합니다. 이 회사는 DNS에 Amazon Route 53을 사용하고 CloudFront 배포를 위해 www.example.com의 A 레코드를 생성했습니다. 솔루션 설계자는 가용성이 높고 내결함성이 있도록 애플리케이션을 구성해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 다른 AWS 리전에서 전체 보조 애플리케이션 배포를 프로비저닝합니다. 장애 조치 레코드가 되도록 Route 53 A 레코드를 업데이트합니다. 두 CloudFront 배포를 모두 값으로 추가합니다. Route 53 상태 확인을 생성합니다. B. 다른 AWS 리전에서 ALB, Auto Scaling 그룹 및 EC2 인스턴스를 프로비저닝합니다. CloudFront 배포를 업데이트하고 새 AL에 대한 두 번째 오리진을 생성합니다. 두 오리진에 대한 오리진 그룹을 만듭니다. 하나의 오리진을 기본으로, 하나의 오리진을 보조로 구성하십시오. C. 다른 AWS 지역에서 Auto Scaling 그룹 및 EC2 인스턴스를 프로비저닝합니다. ALB에서 새 Auto Scaling 그룹에 대한 두 번째 대상을 생성합니다. ALB에서 장애 조치 라우팅 알고리즘을 설정합니다. D. 다른 AWS 리전에서 완전한 보조 애플리케이션 배포를 프로비저닝합니다. 두 번째 CloudFront 배포를 생성하고 새 애플리케이션 설정을 오리진으로 추가합니다. AWS Global Accelerator 액셀러레이터를 생성합니다. 두 CloudFront 배포를 엔드포인트로 추가합니다. 회사에서 Amazon Connect를 사용하여 콜 센터를 구축하고 있습니다. 회사의 운영 팀은 AWS 리전 전체에서 재해 복구(DR) 전략을 정의하고 있습니다. 컨택 센터에는 수십 개의 고객 응대 흐름, 수백 명의 사용자 및 수십 개의 청구된 전화 번호가 있습니다. 가장 낮은 RTO로 DR을 제공하는 솔루션은 무엇입니까?. A. Amazon Connect 인스턴스의 가용성을 확인하고 사용할 수 없는 경우 운영 팀에 알림을 보내는 AWS Lambda 함수를 생성합니다. 5분마다 Lambda 함수를 호출하는 Amazon EventBridge 규칙을 생성합니다. 알림 후 운영 팀에 AWS Management 콘솔을 사용하여 두 번째 리전에서 새 Amazon Connect 인스턴스를 프로비저닝하도록 지시합니다. AWS CloudFormation 템플릿을 사용하여 고객 응대 흐름, 사용자 및 청구된 전화번호를 배포합니다. B. 두 번째 리전의 모든 기존 사용자와 함께 새 Amazon Connect 인스턴스를 프로비저닝합니다. Amazon Connect 인스턴스의 가용성을 확인하는 AWS Lambda 함수를 생성합니다. 5분마다 Lambda 함수를 호출하는 Amazon EventBridge 규칙을 생성합니다. 문제가 발생하면 두 번째 리전에서 고객 응대 흐름과 청구 번호를 프로비저닝하는 AWS CloudFormation 템플릿을 배포하도록 Lambda 함수를 구성하십시오. C. 두 번째 리전에서 모든 기존 고객 응대 흐름 및 청구된 전화번호로 새 Amazon Connect 인스턴스를 프로비저닝합니다. Amazon Connect 인스턴스의 URL에 대한 Amazon Route 53 상태 확인을 생성합니다. 실패한 상태 확인에 대한 Amazon CloudWatch 경보를 생성합니다. 모든 사용자를 프로비저닝하는 AWS CloudFormation 템플릿을 배포하는 AWS Lambda 함수를 생성합니다. Lambda 함수를 호출하도록 경보를 구성합니다. D. 두 번째 리전의 모든 기존 사용자 및 고객 응대 흐름으로 새 Amazon Connect 인스턴스를 프로비저닝합니다. Amazon Connect 인스턴스의 URL에 대한 Amazon Route 53 상태 확인을 생성합니다. 실패한 상태 확인에 대한 Amazon CloudWatch 경보를 생성합니다. 청구된 전화번호를 프로비저닝하는 AWS CloudFormation 템플릿을 배포하는 AWS Lambda 함수를 생성합니다. Lambda 함수를 호출하도록 경보를 구성합니다. 회사는 AWS Organizations의 회사 조직 내 개발자 계정에서 AWS 데이터 전송 비용 및 컴퓨팅 비용을 최적화하려고 합니다. 개발자는 단일 AWS 리전에서 VPC를 구성하고 Amazon EC2 인스턴스를 시작할 수 있습니다. EC2 인스턴스는 Amazon S3에서 매일 약 1TB의 데이터를 검색합니다. 개발자 활동으로 인해 높은 컴퓨팅 비용과 함께 EC2 인스턴스와 S3 버킷 간의 과도한 월 데이터 전송 요금 및 NAT 게이트웨이 처리 요금이 발생합니다. 이 회사는 개발자가 AWS 계정 내에 배포하는 모든 EC2 인스턴스 및 VPC 인프라에 대해 승인된 아키텍처 패턴을 사전에 시행하고자 합니다. 회사는 이러한 시행이 개발자가 작업을 수행할 수 있는 속도에 부정적인 영향을 미치는 것을 원하지 않습니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 개발자가 승인되지 않은 EC2 인스턴스 유형을 시작하지 못하도록 SCP를 생성합니다. 개발자에게 AWS CloudFormation 템플릿을 제공하여 S3 인터페이스 엔드포인트가 있는 승인된 VPC 구성을 배포합니다. 개발자가 CloudFormation으로만 VPC 리소스를 시작할 수 있도록 개발자의 IAM 권한 범위를 지정합니다. B. 개발자 계정 전체에서 EC2 컴퓨팅 비용 및 S3 데이터 전송 비용을 모니터링하기 위해 AWS 예산으로 일일 예측 예산을 생성합니다. 예상 비용이 실제 예산 비용의 75%가 되면 개발자 팀에 알림을 보냅니다. 실제 예산 비용이 100%인 경우 개발자의EC2 인스턴스 및 VPC 인프라를 종료하는 예산 작업을 생성합니다. C. 사용자가 S3 게이트웨이 엔드포인트 및 승인된 EC2 인스턴스로 승인된 VPC 구성을 생성하는 데 사용할 수 있는 AWS Service Catalog 포트폴리오를 생성합니다. 개발자 계정과 포트폴리오를 공유합니다. 승인된 IAM 역할을 사용하도록 AWS Service Catalog 시작 제약 조건을 구성합니다. AWS Service Catalog에 대한 액세스만 허용하도록 개발자의 IAM 권한 범위를 지정합니다. D. 개발자 AWS 계정에서 EC2 및 VPC 리소스의 규정 준수를 모니터링하기 위해 AWS Config 규칙을 생성하고 배포합니다. 개발자가 승인되지 않은 EC2 인스턴스를 시작하거나 개발자가 S3 게이트웨이 엔드포인트 없이 VPC를 생성하는 경우 수정 조치를 수행하여 승인되지 않은 리소스를 종료하십시오. 북미의 한 금융 서비스 회사는 AWS에서 고객에게 새로운 온라인 웹 애플리케이션을 출시할 계획입니다. 회사는 Amazon EC2 인스턴스의 us-east-1 지역에서 애플리케이션을 시작할 것입니다. 애플리케이션은 가용성이 높아야 하며 사용자 트래픽을 충족하도록 동적으로 확장되어야 합니다. 회사는 또한 활성-수동 장애 조치를 사용하여 us-west-1 지역의 애플리케이션에 대한 재해 복구 환경을 구현하려고 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. us-east-1에 VPC를 만들고 us-west-1에 VPC를 만듭니다. VPC 피어링을 구성합니다. us-east-1 VPC에서 두 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. 두 VPC의 여러 가용 영역에 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤에 Auto Scaling 그룹을 배치합니다. B. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. us-east-1 VPC에서 해당 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. us-east-1 VPC의 여러 가용 영역에 걸쳐 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALSet 뒤에 Auto Scaling 그룹을 us-west-1 VPC에서 동일한 구성으로 배치합니다. Amazon Route 53 호스팅 영역을 생성합니다. 각 ALEnable 상태 확인에 대해 별도의 레코드를 생성하여 리전 간 고가용성을 보장합니다. C. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. us-east-1 VPC에서 해당 VPC의 여러 가용 영역에 걸쳐 확장되는 Application Load Balancer(ALB)를 생성합니다. us-east-1 VPP의 여러 가용 영역에 걸쳐 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤의 스케일링 그룹. us-west-1 VPC에서 동일한 구성을 설정하고 Amazon Route 53 호스팅 영역을 생성합니다. 각 ALB에 대해 별도의 레코드를 생성합니다. 상태 확인을 활성화하고 각 레코드에 대한 장애 조치 라우팅 정책을 구성합니다. D. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. VPC 피어링을 구성합니다. us-east-1 VPC에서 두 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. 두 VPC의 여러 가용 영역에 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤에 Auto Scaling 그룹을 배치합니다. Amazon Route 53 호스팅 영역을 생성합니다. ALB에 대한 레코드를 만듭니다. 한 회사에서 스택에 배포된 를 기반으로 AWS CloudFormation AWS Lambda 애플리케이션을 구축했습니다. 웹 애플리케이션의 마지막 프로덕션 릴리스에서 몇 분 동안 중단되는 문제가 발생했습니다. 솔루션 설계자는 카나리아 릴리스를 지원하도록 배포 프로세스를 조정해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 새로 배포된 Lambda 함수 버전마다 별칭을 만듭니다. 라우팅 구성 파라미터와 함께 AWS CLI update-alias 명령을 사용하여 로드를 분산합니다. B. 애플리케이션을 새 CloudFormation 스택에 배포합니다. Amazon Route 53 가중 라우팅 정책을 사용하여 로드를 분산합니다. C. 새로 배포된 모든 Lambda 함수에 대한 버전을 생성합니다. 라우팅 구성 파라미터와 함께 AWS CLI update-function-configuration 명령을 사용하여 로드를 분산합니다. D. AWS CodeDeploy를 구성하고 배포 구성에서 CodeDeployDefault.OneAtATime을 사용하여 로드를 분산합니다. 회사에서 데이터 분석 환경을 온프레미스에서 AWS로 마이그레이션하려고 합니다. 환경은 두 개의 간단한 Node.js 애플리케이션으로 구성됩니다. 애플리케이션 중 하나는 센서 데이터를 수집하여 MySQL 데이터베이스에 로드합니다. 다른 응용 프로그램은 데이터를 보고서로 집계합니다. 집계 작업이 실행될 때 일부 로드 작업이 제대로 실행되지 않습니다. 회사는 데이터 로딩 문제를 해결해야 합니다. 회사는 또한 회사 고객을 위해 중단이나 변경 없이 마이그레이션을 수행해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. Amazon Aurora MySQL 데이터베이스를 온프레미스 데이터베이스의 복제 대상으로 설정합니다. Aurora MySQL 데이터 베이스용 Aurora 복제본을 생성하고 집계 작업을 이동하여 Aurora 복제본에 대해 실행합니다. 수집 엔드포인트를 NLB (Network Load Balancer) 뒤에 있는 AWS Lambda 함수로 설정하고 Amazon RDS 프록시를 사용하여 Aurora MySQL 데이터베이스에 씁니다. 데이터베이스가 동기화되면 복제 작업을 비활성화하고 Aurora 복제본을 기본 인스턴스로 다시 시작하십시오. 수집기 DNS 레코드가 NLB를 가리키도록 합니다. B. Amazon Aurora MySQL 데이터베이스를 설정합니다. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 Aurora로 연속 데이터 복제를 수행합니다. Aurora MySQL 데이터베이스에 대해 실행할 집계 작업을 이동합니다. Auto Scaling 그룹의 Amazon EC2 인스턴스로 Application Load Balancer(ALB) 뒤에 수집 엔드포인트를 설정합니다. 데이터베이스가 동기화되면 수집기 DNS 레코드가 온프레미스에서 AWS로 전환된 후 ALDisable AWS DMS 동기화 작업을 가리킵니다. C. Amazon Aurora MySQL 데이터베이스를 설정합니다. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 Aurora로 연속 데이터 복제를 수행합니다. Aurora MySQL 데이터베이스용 Aurora 복제본을 생성하고 집계 작업을 이동하여 Aurora 복제본에 대해 실행합니다. 수집 엔드포인트를 Application Load Balancer (ALB) 뒤에 있는 AWS Lambda 함수로 설정하고 Amazon RDS 프록시를 사용하여 Aurora MySQL 데이터베이스에 씁니다. 데이터베이스가 동기화되면 수집기 DNS 레코드가 ALB를 가리키도록 합니다. 온프레미스에서 AWS로 컷오버한 후 AWS DMS 동기화 작업을 비활성화합니다. D. Amazon Aurora MySQL 데이터베이스를 설정합니다. Aurora MySQL 데이터베이스용 Aurora 복제본을 생성하고 집계 작업을 이동하여 Aurora 복제본에 대해 실행합니다. 수집 엔드포인트를 Amazon Kinesis 데이터 스트림으로 설정합니다. Amazon Kinesis Data Firehose를 사용하여 데이터를 Aurora MySQL 데이터베이스에 복제합니다. 데이터베이스가 동기화되면 복제 작업을 비활성화하고 Aurora 복제본을 기본 인스턴스로 다시 시작하십시오. 수집기 DNS 레코드가 Kinesis 데이터 스트림을 가리키도록 합니다. 솔루션 설계자는 EMRFS(EMR 파일 시스템)를 사용하는 Amazon EMR 클러스터의 설계를 검토해야 합니다. 클러스터는 비즈니스 요구에 중요한 작업을 수행합니다. 클러스터는 모든 작업, 기본 및 코어 노드에 대해 항상 Amazon EC2 온디맨드 인스턴스를 실행하고 있습니다. EMR 작업은 매일 아침 오전 1시에 시작하여 실행됩니다. 실행을 완료하는 데 6시간이 걸립니다. 데이터가 늦은 시간까지 참조되지 않기 때문에 처리를 완료하는 데 걸리는 시간은 우선순위가 아닙니다. 솔루션 설계자는 아키텍처를 검토하고 컴퓨팅 비용을 최소화하는 솔루션을 제안해야 합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 솔루션을 권장해야 합니까?. A. 인스턴스 플릿의 스팟 인스턴스에서 모든 작업 기본 및 코어 노드를 시작합니다. 처리가 완료되면 모든 인스턴스를 포함하여 클러스터를 종료합니다. B. 온디맨드 인스턴스에서 기본 및 코어 노드를 시작합니다. 인스턴스 플릿의 스팟 인스턴스에서 작업 노드를 시작합니다. 처리가 완료되면 모든 인스턴스를 포함하여 클러스터를 종료합니다. 온디맨드 인스턴스 사용량을 충당하려면 Compute Savings Plans를 구입하십시오. C. 온디맨드 인스턴스에서 모든 노드를 계속 시작합니다. 처리가 완료되면 모든 인스턴스를 포함하여 클러스터를 종료합니다. 온디맨드 인스턴스 사용량을 충당하려면 Compute Savings Plans를 구입하십시오. D. 온디맨드 인스턴스에서 기본 및 코어 노드를 시작합니다. 인스턴스 플릿의 스팟 인스턴스에서 작업 노드를 시작합니다. 처리가 완료되면 작업 노드 인스턴스만 종료합니다. 온디맨드 인스턴스 사용량을 충당하려면 Compute Savings Plans를 구입하십시오. 회사에는 별도의 AWS 계정이 많이 있으며 중앙 청구 또는 관리를 사용하지 않습니다. 각 AWS 계정은 회사의 여러 부서에 대한 서비스를 호스팅합니다. 회사에는 배포된 Microsoft Azure Active Directory가 있습니다. 솔루션 설계자는 회사의 AWS 계정에 대한 청구 및 관리를 중앙 집중화해야 합니다. 회사는 수동 사용자 관리 대신 ID 연합을 사용하기를 원합니다. 회사는 또한 수명이 긴 액세스 키 대신 임시 자격 증명을 사용하려고 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 마스터 계정 역할을 할 새 AWS 계정을 생성합니다. AWS Organizations에서 조직을 배포합니다. 각 기존 AWS 계정을 조직에 가입하도록 초대합니다. 각 계정이 초대를 수락하는지 확인하십시오. B. 각 AWS 계정의 이메일 주소를 aws+로 구성합니다.@example.com 계정 관리 이메일 메시지와 인보이스가 같은 곳으로 전송되도록 합니다. C. 마스터 계정에서 AWS IAM Identity Center(AWS Single Sign-On)를 배포합니다. IAM Identity Center를 Azure Active Directory에 연결합니다. 사용자 및 그룹의 자동 동기화를 위해 IAM Identity Center를 구성합니다. D. 마스터 계정에 AWS Managed Microsoft AD 디렉터리를 배포합니다. AWS Resource Access Manager(AWS RAM)를 사용하여 조직의 다른 모든 계정과 디렉터리를 공유합니다. E. AWS IAM Identity Center(AWS Single Sign-On) 권한 집합을 생성합니다. 적절한 IAM 자격 증명 센터 그룹 및 AWS 계정에 권한 집합을 연결합니다. F. 인증 및 권한 부여에 AWS Managed Microsoft AD를 사용하도록 각 AWS 계정에서 AWS Identity and Access Management(IAM)를 구성합니다. 회사는 AWS에서 IoT 플랫폼을 실행합니다. 다양한 위치에 있는 IoT 센서는 Application Load Balancer 뒤에서 실행되는 Amazon EC2 인스턴스에 있는 회사의 Node.js API 서버로 데이터를 보냅니다. 데이터는 4TB 범용 SSD 볼륨을 사용하는 Amazon RDS MySQL DB 인스턴스에 저장됩니다. 회사가 현장에 배치한 센서의 수는 시간이 지남에 따라 증가했으며 크게 증가할 것으로 예상됩니다. API 서버는 지속적으로 오버로드되고 RDS 지표는 높은 쓰기 대기 시간을 나타냅니다. 다음 중 이 플랫폼을 비용 효율적으로 유지하면서 문제를 영구적으로 해결하고 새로운 센서가 프로비저닝됨에 따라 성장을 가능하 게 하는 단계는 무엇입니까? (두 가지를 선택하세요.). A. MySQL 범용 SSD 스토리지의 크기를 6TB로 조정하여 볼륨의 IOPS를 개선합니다. B. RDS MySQL DB 인스턴스 대신 Amazon Aurora를 사용하고 읽기 전용 복제본을 추가하도록 데이터베이스 계층을 재설계합니다. C. Amazon Kinesis Data Streams 및 AWS Lambda를 활용하여 원시 데이터를 수집하고 처리합니다. D. AWS X-Ray를 사용하여 애플리케이션 문제를 분석 및 디버깅하고 부하에 맞게 API 서버를 더 추가합니다. E. RDS MySQL DB 인스턴스 대신 Amazon DynamoDB를 사용하도록 데이터베이스 계층을 재설계합니다. 회사는 AWS에서 이벤트 티켓팅 플랫폼을 실행 중이며 플랫폼의 비용 효율성을 최적화하려고 합니다. 이 플랫폼은 Amazon EC2와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)에 배포되며 Amazon RDS for MySQL DB 인스턴스의 지원을 받습니다. 이 회사는 AWS Fargate 를 사용하여 Amazon EKS에서 실행할 새로운 애플리케이션 기능을 개발하고있습니다. 플랫폼은 드물게 최고 수요를 경험합니다. 수요 급증은 이벤트 날짜에 따라 다릅니다. 플랫폼에 가장 비용 효율적인 설정을 제공하는 솔루션은 무엇입니까?. A. EKS 클러스터가 기준 로드에서 사용하는 EC2 인스턴스에 대한 표준 예약 인스턴스를 구입합니다. 피크를 처리하기 위해 스팟 인스턴스로 클러스터를 확장합니다. 해당 연도의 예상 최대 로드를 충족하려면 데이터베이스에 대한 1년 전체 선결제 예약 인스턴스를 구입하십시오. B. EKS 클러스터의 예상 중간 로드에 대한 Compute Savings Plans를 구입합니다. 피크 이벤트 날짜를 기준으로 온디맨드 용량 예약으로 클러스터를 확장합니다. 예측된 기본 로드를 충족하기 위해 데이터베이스에 대한 1년 선결제 없음 예약 인스턴스를 구매합니다. 사용량이 많을 때 일시적으로 데이터베이스 읽기 전용 복제본을 확장합니다. C. EKS 클러스터의 예상 기본 부하에 대한 EC2 Instance Savings Plans를 구입합니다. 피크를 처리하기 위해 스팟 인스턴스로 클러스터를 확장합니다. 예측된 기본 부하를 충족하기 위해 데이터베이스에 대한 1년 전체 선결제 예약 인스턴스를 구입합니다. 사용량이 많을 때 일시적으로 DB 인스턴스를 수동으로 확장합니다. D. EKS 클러스터의 예상 기본 부하에 대한 Compute Savings Plans를 구입합니다. 피크를 처리하기 위해 스팟 인스턴스로 클러스터를 확장합니다. 예측된 기본 부하를 충족하기 위해 데이터베이스에 대한 1년 전체 선결제 예약 인스턴스를 구입합니다. 사용량이 많을 때 일시적으로 DB 인스턴스를 수동으로 확장합니다. 회사에서 레거시 애플리케이션을 AWS 클라우드로 마이그레이션했습니다. 애플리케이션은 3개의 가용 영역에 분산된 3개의 Amazon EC2 인스턴스에서 실행됩니다. 하나의 EC2 인스턴스는 각 가용 영역에 있습니다. EC2 인스턴스는 VPC의 프라이빗 서브넷 3개에서 실행 중이며 퍼블릭 서브넷 3개와 연결된 ALB(Application Load Balancer)의 대상으로 설정됩니다. 애플리케이션은 온프레미스 시스템과 통신해야 합니다. 회사의 IP 주소 범위에 있는 IP 주소의 트래픽만 온프레미스 시스템에 액세스할 수 있습니다. 회사의 보안 팀은 내부 IP 주소 범위에서 클라우드로 하나의 IP 주소만 가져오고 있습니다. 회사는 이 IP 주소를 회사 방화벽의 허용 목록에 추가했습니다. 회사는 또한 이 IP 주소에 대해 Elastic IP 주소를 생성했습니다. 솔루션 설계자는 애플리케이션이 온프레미스 시스템과 통신할 수 있는 기능을 제공하는 솔루션을 만들어야 합니다. 솔루션은 또한 장애를 자동으로 완화할 수 있어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 각 퍼블릭 서브넷에 하나씩 세 개의 NAT 게이트웨이를 배포합니다. NAT 게이트웨이에 탄력적 IP 주소를 할당합니다. NAT 게이트웨이에 대한 상태 확인을 켭니다. NAT 게이트웨이가 상태 확인에 실패하면 NAT 게이트웨이를 다시 생성하고 탄력적 IP 주소를 새 NAT 게이트웨이에 할당합니다. B. ALB를 NLB(Network Load Balancer)로 교체합니다. 탄력적 IP 주소를 NLT에 할당합니다. NLT의 상태 확인에 실패할 경우 NLB를 다른 서브넷에 재배포합니다. C. 퍼블릭 서브넷에 단일 NAT 게이트웨이를 배포합니다. NAT 게이트웨이에 탄력적 IP 주소를 할당합니다. 사용자 지정 지표와 함께 Amazon CloudWatch를 사용하여 NAT 게이트웨이를 모니터링합니다. NAT 게이트웨이가 비정상인 경우 AWS Lambda 함수를 호출하여 다른 서브넷에 새 NAT 게이트웨이를 생성합니다. 새 NAT 게이트웨이에 탄력적 IP 주소를 할당합니다. D. 탄력적 IP 주소를 ALB에 할당합니다. 탄력적 IP 주소를 값으로 사용하여 Amazon Route 53 단순 레코드를 생성합니다. Route 53 상태 확인을 생성합니다. 상태 확인에 실패한 경우 다른 서브넷에서 ALB를 다시 생성하십시오. 회사는 미국의 AWS 리전에서 판매 보고 애플리케이션을 실행합니다. 이 애플리케이션은 Amazon API Gateway 지역 API 및 AWS Lambda 함수를 사용하여 Amazon RDS for MySQL 데이터베이스의 데이터에서 온디맨드 보고서를 생성합니다. 애플리케이션의 프런트엔드는 Amazon S3에서 호스팅되며 Amazon CloudFront 배포를 통해 사용자가 액세스합니다. 이 회사는 Amazon Route 53을 도메인의 DNS 서비스로 사용하고 있습니다. Route 53은 트래픽을 API Gateway API로 라우팅하는 간단한 라우팅 정책으로 구성됩니다. 향후 6개월 내에 회사는 유럽으로 사업을 확장할 계획입니다. 데이터베이스 트래픽의 90% 이상이 읽기 전용 트래픽입니다. 회사는 이미 새 리전에 API Gateway API 및 Lambda 함수를 배포했습니다. 솔루션 설계자는 보고서를 다운로드하는 사용자의 대기 시간을 최소화하는 솔루션을 설계해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 전체 로드와 함께 작업을 AWS Database Migration Service(AWS DMS) 사용하여 원래 리전의 기본 데이터베이스를 새 리전의 데이터베이스로 복제합니다. Route 53 레코드를 지연 시간 기반 라우팅으로 변경하여 API Gateway API에 연결합니다. B. 전체 로드와 변경 데이터 캡처(CDC)가 포함된 AWS Database Migration Service(AWS DMS) 작업을 사용하여 원래 리전의 기본 데이터베이스를 새 리전의 데이터베이스로 복제합니다. Route 53 레코드를 지리적 위치 라우팅으로 변경하여 API Gateway API에 연결합니다. C. 새 리전의 RDS 데이터베이스에 대한 리전 간 읽기 전용 복제본을 구성합니다. Route 53 레코드를 지연 시간 기반 라우팅으로 변경하여 API Gateway API에 연결합니다. D. 새 리전의 RDS 데이터베이스에 대한 리전 간 읽기 전용 복제본을 구성합니다. Route 53 레코드를 지리적 위치 라우팅으로 변경하여 API Gateway API에 연결합니다. 회사는 Windows 파일 서버에 온프레미스로 데이터를 저장하고 있습니다. 회사는 매일 5GB의 새로운 데이터를 생성합니다. 이 회사는 Windows 기반 워크로드의 일부를 AWS로 마이그레이션했으며 클라우드의 파일 시스템에서 데이터를 사용할 수 있어야 합니다. 회사는 이미 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정했습니다. 회사는 어떤 데이터 마이그레이션 전략을 사용해야 합니까?. A. AWS Storage Gateway의 파일 게이트웨이 옵션을 사용하여 기존 Windows 파일 서버를 교체하고 기존 파일 공유가 새 파일 게이트웨이를 가리키도록 합니다. B. AWS DataSync를 사용하여 온프레미스 Windows 파일 서버와 Amazon FSx 간에 데이터를 복제하는 일일 작업을 예약합니다. C. AWS Data Pipeline을 사용하여 온프레미스 Windows 파일 서버와 Amazon Elastic File System(Amazon EFS) 간에 데이터를 복제하는 일일 작업을 예약합니다. D. AWS DataSync를 사용하여 온프레미스 Windows 파일 서버와 Amazon Elastic File System(Amazon EFS) 간에 데이터를 복제하는 일일 작업을 예약합니다. 회사는 Amazon EC2 Linux 인스턴스에서 독점 상태 비저장 ETL 애플리케이션을 실행합니다. 응용 프로그램은 Linux 바이너리이며 소스 코드를 수정할 수 없습니다. 응용 프로그램은 단일 스레드이고 2GB RAM을 사용하며 CPU를 많이 사용합니다. 애플리케이션은 4시간마다 실행되도록 예약되며 최대 20분 동안 실행됩니다. 솔루션 아키텍트가 솔루션의 아키텍처를 수정하려고 합니다. 솔루션 설계자는 어떤 전략을 사용해야 합니까?. A. AWS Lambda를 사용하여 애플리케이션을 실행하십시오. Amazon CloudWatch Logs를 사용하여 4시간마다 Lambda 함수를 호출합니다. B. AWS Batch를 사용하여 애플리케이션을 실행합니다. AWS Step Functions 상태 머신을 사용하여 4시간마다 AWS Batch 작업을 호출합니다. C. AWS Fargate를 사용하여 애플리케이션을 실행합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 4시간마다 Fargate 작업을 호출합니다. D. Amazon EC2 스팟 인스턴스를 사용하여 애플리케이션을 실행합니다. AWS CodeDeploy를 사용하여 4시간마다 애플리케이션을 배포하고 실행합니다. SaaS(Software-as-a-Service) 공급자는 ALB(Application Load Balancer)를 통해 API를 노출합니다. ALB는 us- east-1 지역에 배포된 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터에 연결됩니다. 노출된 API에는 LINK, UNLINK, LOCK 및 UNLOCK과 같은 몇 가지 비표준 REST 메서드 사용이 포함되어 있습니다. 미국 이외 지역의 사용자는 이러한 API에 대해 길고 일관성 없는 응답 시간을 보고하고 있습니다. 솔루션 설계자는 운영 오버헤드 를 최소화하는 솔루션으로 이 문제를 해결해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. Amazon CloudFront 배포를 추가합니다. ALB를 원본으로 구성합니다. B. 엣지 최적화 엔드포인트를 Amazon API Gateway API 추가하여 API를 노출합니다. ALB를 대상으로 구성합니다. C. AWS Global Accelerator에 액셀러레이터를 추가합니다. ALB를 원본으로 구성합니다. D. 두 개의 추가 AWS 지역인 eu-west-1 및 ap-southeast-2에 API를 배포합니다. Amazon Route 53에 지연 시간 기반 라우팅 레코드를 추가합니다. 한 회사에서 1,000개의 온프레미스 서버를 AWS로 마이그레이션할 계획입니다. 서버는 회사 데이터 센터의 여러 VMware 클러스터에서 실행됩니다. 마이그레이션 계획의 일부로 회사는 CPU 세부 정보, RAM 사용량, 운영 체제 정보 및 실행 중인 프로세스와 같은 서버 메트릭을 수집하려고 합니다. 그런 다음 회사는 데이터를 쿼리하고 분석하려고 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 온프레미스 호스트에서 AWS Agentless Discovery Connector 가상 어플라이언스를 배포하고 구성합니다. AWS Migration Hub에서 데이터 탐색을 구성합니다. AWS Glue를 사용하여 데이터에 대해 ETL 작업을 수행합니다. Amazon S3 Select를 사용하여 데이터를 쿼리합니다. B. 온프레미스 호스트에서 VM 성능 정보만 내보냅니다. 필요한 데이터를 AWS Migration Hub로 직접 가져옵니다. Migration Hub에서 누락된 정보를 업데이트합니다. Amazon QuickSight를 사용하여 데이터를 쿼리합니다. C. 온프레미스 호스트에서 서버 정보를 자동으로 수집하는 스크립트를 만듭니다. AWS CLI를 사용하여 put-resource-attributes 명령을 실행하여 자세한 서버 데이터를 AWS Migration Hub에 저장합니다. Migration Hub 콘솔에서 직접 데이터를 쿼리합니다. D. 각 온프레미스 서버에 AWS Application Discovery Agent를 배포합니다. AWS Migration Hub에서 데이터 탐색을 구성합니다. Amazon Athena를 사용하여 Amazon S3의 데이터에 대해 사전 정의된 쿼리를 실행합니다. 회사의 대화형 웹 애플리케이션은 Amazon CloudFront 배포를 사용하여 Amazon S3 버킷의 이미지를 제공합니다. 경우에 따라 타사 도구가 손상된 이미지를 S3 버킷으로 수집합니다. 이 이미지 손상으로 인해 나중에 애플리케이션에서 사용자 경험이 저하됩니다. 이 회사는 손상된 이미지를 감지하기 위해 Python 논리를 성공적으로 구현하고 테스트했습니다. 솔루션 설계자는 수집과 제공 사이의 대기 시간을 최소화하면서 탐지 논리를 통합하는 솔루션을 권장해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 뷰어 응답 이벤트에 의해 호출되는 Lambda@Edge 함수를 사용합니다. B. 오리진-응답 이벤트에 의해 호출되는 Lambda@Edge 함수를 사용합니다. C. AWS Lambda 함수를 호출하는 S3 이벤트 알림을 사용합니다. D. AWS Step Functions 상태 머신을 호출하는 S3 이벤트 알림을 사용합니다. 회사가 AWS 클라우드에서 IoT 애플리케이션을 실행하고 있습니다. 이 회사는 미국의 주택에서 데이터를 수집하는 수백만 개의 센서를 보유하고 있습니다. 센서는 MQTT 프로토콜을 사용하여 사용자 지정 MQTT 브로커에 연결하고 데이터를 보냅니다. MQTT 브로커는 단일 Amazon EC2 인스턴스에 데이터를 저장합니다. 센서는 iot.example.com이라는 도메인을 통해 브로커에 연결됩니다. 이 회사는 Amazon Route 53을 DNS 서비스로 사용합니다. 회사는 데이터를 Amazon DynamoDB에 저장합니다. 여러 경우에 데이터 양이 MQTT 브로커에 과부하를 일으켜 센서 데이터가 손실되었습니다. 회사는 솔루션의 신뢰성을 향상시켜야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. MQTT 브로커를 위한 ALB(Application Load Balancer) 및 Auto Scaling 그룹을 생성합니다. Auto Scaling 그룹을 ALB의 대상으로 사용합니다. Route 53의 DNS 레코드를 별칭 레코드로 업데이트합니다. 별칭 레코드가 ALB를 가리키도록 합니다. MQTT 브로커를 사용하여 데이터를 저장합니다. B. 센서 데이터를 수신하도록 AWS IoT Core를 설정합니다. AWS IoT Core에 연결할 사용자 지정 도메인을 생성하고 구성합니다. AWS IoT Core Data-ATS 엔드포인트를 가리키도록 Route 53의 DNS 레코드를 업데이트합니다. 데이터를 저장하도록 AWS IoT 규칙을 구성합니다. C. NLB(Network Load Balancer)를 생성합니다. MQTT 브로커를 대상으로 설정합니다. AWS Global Accelerator 액셀러레이터를 생성합니다. NLB를 액셀러레이터의 끝점으로 설정합니다. Route 53의 DNS 레코드를 다중값 응답 레코드로 업데이트합니다. Global Accelerator IP 주소를 값으로 설정합니다. MQTT 브로커를 사용하여 데이터를 저장합니다. D. 센서 데이터를 수신하도록 AWS IoT Greengrass를 설정합니다. AWS IoT Greengrass 엔드포인트를 가리키도록 Route 53의 DNS 레코드를 업데이트합니다. 데이터를 저장하기 위해 AWS Lambda 함수를 호출하도록 AWS IoT 규칙을 구성합니다. 회사에서 Amazon OpenSearch Service를 사용하여 데이터를 분석하고 있습니다. 회사는 S3 Standard 스토리지를 사용하는 Amazon S3 버킷에서 10개의 데이터 노드가 있는 OpenSearch Service 클러스터로 데이터를 로드합니다. 데이터는 읽기 전용 분석을 위해 1개월 동안 클러스터에 상주합니다. 1개월 후 회사는 데이터가 포함된 인덱스를 클러스터에서 삭제합니다. 규정 준수를 위해 회사는 모든 입력 데이터의 사본을 보관해야 합니다. 회사는 지속적인 비용에 대해 우려하고 있으며 솔루션 설계자에게 새로운 솔루션을 추천해 달라고 요청합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 모든 데이터 노드를 UltraWarm 노드로 교체하여 예상 용량을 처리합니다. 회사에서 데이터를 클러스터에 로드할 때 입력 데이터를 S3 Standard에서 S3 Glacier Deep Archive로 전환합니다. B. 클러스터의 데이터 노드 수를 2개로 줄입니다. UltraWarm 노드를 추가하여 예상 용량을 처리합니다. OpenSearch Service가 데이터를 수집할 때 UltraWarm으로 전환하도록 인덱스를 구성합니다. S3 수명 주기 정책을 사용하여 1개월 후 에 입력 데이터를 S3 Glacier Deep Archive로 전환합니다. C. 클러스터의 데이터 노드 수를 2로 줄입니다. UltraWarm 노드를 추가하여 예상 용량을 처리합니다. OpenSearch Service가 데이터를 수집할 때 UltraWarm으로 전환하도록 인덱스를 구성합니다. 클러스터에 콜드 스토리지 노드 추가 인덱스를 UltraWarm에서 콜드 스토리지로 전환합니다. S3 수명 주기 정책을 사용하여 1개월 후 S3 버킷에서 입력 데이터를 삭제합니다. D. 클러스터의 데이터 노드 수를 2개로 줄입니다. 인스턴스 지원 데이터 노드를 추가하여 예상 용량을 처리합니다. 회사에서 데이터를 클러스터에 로드할 때 입력 데이터를 S3 Standard에서 S3 Glacier Deep Archive로 전환합니다. 솔루션 설계자는 클라우드 엔지니어 팀이 AWS CLI를 사용하여 객체를 Amazon S3 버킷에 업로드할 수 있는 안전한 방법을 제공해야 합니다. 각 클라우드 엔지니어에게는 IAM 사용자, IAM 액세스 키 및 가상 MFA(다단계 인증) 장치가 있습니다. 클라우드 엔지니어의 IAM 사용자는 S3-access라는 그룹에 있습니다. 클라우드 엔지니어는 MFA를 사용하여 Amazon S3에서 모든 작업을 수행해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 정책을 S3 버킷에 연결하여 IAM 사용자가 S3 버킷에서 작업을 수행할 때 IAM 사용자에게 MFA 코드를 묻는 메시지를 표시합니다. AWS CLI와 함께 IAM 액세스 키를 사용하여 Amazon S3를 호출합니다. B. 보안 주체가 그룹을 맡을 때 보안 주체가 MFA를 사용하도록 요구하도록 S3 액세스 그룹에 대한 신뢰 정책을 업데이트합니다. AWS CLI와 함께 IAM 액세스 키를 사용하여 Amazon S3를 호출합니다. C. 정책을 S3 액세스 그룹에 연결하여 MFA가 없는 경우 모든 S3 작업을 거부합니다. AWS CLI와 함께 IAM 액세스 키를 사용하여 Amazon S3를 호출합니다. D. 정책을 S3-액세스 그룹에 연결하여 MFA가 없는 경우 모든 S3 작업을 거부합니다. AWS Security Token Service(AWS STS)에서 임시 자격 증명을 요청합니다. 사용자가 Amazon S3에서 작업을 수행할 때 Amazon S3가 참조할 프로필에 임시 자격 증명을 연결합니다. 회사는 AWS에서 애플리케이션을 실행합니다. 회사는 여러 소스의 데이터를 관리합니다. 이 회사는 독점 알고리즘을 사용하여 데이터 변환 및 집계를 수행합니다. 회사에서 ETL 프로세스를 수행한 후 회사는 결과를 Amazon Redshift 테이블에 저장합니다. 회사는 이 데이터를 다른 회사에 판매합니다. 회사는 Amazon Redshift 테이블에서 데이터를 파일로 다운로드하고 FTP를 사용하여 여러 데이터 고객에게 파일을 전송합니다. 데이터 고객의 수가 크게 증가했습니다. 데이터 고객 관리가 어려워졌습니다. 회사는 AWS Data Exchange를 사용하여 회사가 고객과 데이터를 공유하는 데 사용할 수 있는 데이터 제품을 만들 것입니다. 회사는 회사가 데이터를 공유하기 전에 고객의 신원을 확인하려고 합니다. 또한 고객은 회사가 데이터를 게시할 때 최신 데이터에 액세스해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. API용 AWS Data Exchange를 사용하여 고객과 데이터를 공유하십시오. 구독 확인을 구성합니다. 데이터를 생성하는 회사의 AWS 계정에서 Amazon Redshift와 Amazon API Gateway 데이터 API 서비스 통합을 생성합니다. 데이터 고객이 데이터 제품을 구독하도록 요구합니다. B. 데이터를 생산하는 회사의 AWS 계정에서 AWS Data Exchange를 Redshift 클러스터에 연결하여 AWS Data Exchange 데이터 공유를 생성합니다. 구독 확인을 구성합니다. 데이터 고객이 데이터 제품을 구독하도록 요구합니다. C. Amazon Redshift 테이블에서 Amazon S3 버킷으로 데이터를 주기적으로 다운로드합니다. S3용 AWS Data Exchange를 사용하여 고객과 데이터를 공유하십시오. 구독 확인을 구성합니다. 데이터 고객이 데이터 제품을 구독하도록 요구합니다. D. AWS Data Exchange의 Open Data에 Amazon Redshift 데이터를 게시합니다. 고객이 AWS Data Exchange에서 데이터 제품을 구독하도록 요구합니다. 데이터를 생산하는 회사의 AWS 계정에서 IAM 리소스 기반 정책을 Amazon Redshift 테이블에 연결하여 확인된 AWS 계정에만 액세스할 수 있도록 합니다. 회사에는 Amazon EC2 Auto Scaling 그룹의 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 이 회사는 AWS CodePipeline을 사용하여 애플리케이션을 배포합니다. Auto Scaling 그룹에서 실행되는 인스턴스는 조정 이벤트로 인해 지속적으로 변경됩니다. 회사에서 새 애플리케이션 코드 버전을 배포할 때 회사는 새 대상 EC2 인스턴스에 AWS CodeDeploy 에이전트를 설치하고 인스턴스를 CodeDeploy 배포 그룹과 연결합니다. 응용 프로그램은 다음 24시간 이내에 활성화되도록 설정됩니다. 최소한의 운영 오버헤드로 애플리케이션 배포 프로세스를 자동화하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?. A. 새 EC2 인스턴스가 Auto Scaling 그룹으로 시작될 때 AWS Lambda 함수를 호출하도록 Amazon EventBridge를 구성합니다. EC2 인스턴스를 CodeDeploy 배포 그룹과 연결하도록 Lambda 함수를 코딩합니다. B. 새 코드를 배포하기 전에 Amazon EC2 Auto Scaling 작업을 일시 중지하는 스크립트를 작성합니다. 배포가 완료되면 새 AMI를 생성하고 새로운 시작에 새 AMI를 사용하도록 Auto Scaling 그룹의 시작 템플릿을 구성합니다. Amazon EC2 Auto Scaling 작업을 재개합니다. C. 새 코드를 포함하는 새 AMI를 생성하는 새 AWS CodeBuild 프로젝트를 생성합니다. Auto Scaling 그룹의 시작 템플릿을 새 AMI로 업데이트하도록 CodeBuild를 구성합니다. Amazon EC2 Auto Scaling 인스턴스 새로 고침 작업을 실행합니다. D. CodeDeploy 에이전트가 설치된 새 AMI를 생성합니다. 새 AMI를 사용하도록 Auto Scaling 그룹의 시작 템플릿을 구성합니다. CodeDeploy 배포 그룹을 EC2 인스턴스 대신 Auto Scaling 그룹과 연결합니다. 비디오 처리 회사에는 Amazon S3 버킷에서 이미지를 다운로드하고, 이미지를 처리, 변환된 이미지를 두 번째 S3 버킷에 저장하고, Amazon DynamoDB 테이블에서 이미지에 대한 메타데이터를 업데이트하는 애플리케이션이 있습니다. 애플리케이션은 Node.js로 작성되고 AWS Lambda 함수를 사용하여 실행됩니다. 새 이미지가 Amazon S3에 업로드되면 Lambda 함수가 호출됩니다. 애플리케이션은 한동안 아무 문제 없이 실행되었습니다. 그러나 이미지의 크기가 크게 커졌습니다. 이제 Lambda 함수가 시간 초과 오류로 인해 자주 실패합니다. 기능 제한 시간은 최대값으로 설정됩니다. 솔루션 설계자는 호출 실패를 방지하기 위해 애플리케이션의 아키텍처를 리팩터링해야 합니다. 회사는 기본 인프라를 관리하기를 원하지 않습니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (두 가지를 선택하세요.). A. 애플리케이션 코드가 포함된 Docker 이미지를 빌드하여 애플리케이션 배포를 수정합니다. 이미지를 Amazon Elastic Container Registry(Amazon ECR)에 게시합니다. B. 호환 유형이 AWS Fargate인 새 Amazon Elastic Container Service(Amazon ECS) 작업 정의를 생성합니다. Amazon Elastic Container Registry(Amazon ECR)에서 새 이미지를 사용하도록 작업 정의를 구성합니다. 새 파일이 Amazon S3에 도착하면 ECS 작업 정의를 사용하여 ECS 작업을 호출하도록 Lambda 함수를 조정합니다. C. Parallel 상태로 AWS Step Functions 상태 시스템을 생성하여 Lambda 함수를 호출합니다. Lambda 함수의 프로비저닝된 동시성을 높입니다. D. 호환성 유형이 Amazon EC2인 새 Amazon Elastic Container Service(Amazon ECS) 작업 정의를 생성합니다. Amazon Elastic Container Registry(Amazon ECR)에서 새 이미지를 사용하도록 작업 정의를 구성합니다. 새 파일이 Amazon S3에 도착하면 ECS 작업 정의를 사용하여 ECS 작업을 호출하도록 Lambda 함수를 조정합니다. E. Amazon Elastic File System(Amazon EFS)에 이미지를 저장하고 Amazon RDS DB 인스턴스에 메타데이터를 저장하도록 애플리케이션을 수정합니다 . Lambda 함수를 조정하여 EFS 파일 공유를 탑재합니다. 한 회사가 AWS에서 데이터 집약적인 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 수백 개의 Amazon EC2 인스턴스로 구성된 클러스터에서 실행됩니다. 공유 파일 시스템은 200TB의 데이터를 저장하는 여러 EC2 인스턴스에서도 실행됩니다. 애플리케이션은 공유 파일 시스템의 데이터를 읽고 수정하며 보고서를 생성합니다. 작업은 한 달에 한 번 실행되며 공유 파일 시스템에서 파일의 하위 집합을 읽고 완료하는 데 약 72시간이 걸립니다. 컴퓨트 인스턴스는 Auto Scaling 그룹에서 확장되지만 공유파일 시스템을 호스팅하는 인스턴스는 계속 실행됩니다. 컴퓨팅 및 스토리지 인스턴스는 모두 동일한 AWS 리전에 있습니다. 솔루션 설계자는 공유 파일 시스템 인스턴스를 교체하여 비용을 줄여야 합니다. 파일 시스템은 72시간 실행 기간 동안 필요한 데이터에 대한 고성능 액세스를 제공해야 합니다. 이러한 요구 사항을 충족하면서 가장 큰 전체 비용 절감 효과를 제공하는 솔루션은 무엇입니까?. A. 기존 공유 파일 시스템의 데이터를 S3 Intelligent-Tiering 스토리지 클래스를 사용하는 Amazon S3 버킷으로 마이그레이션합니다. 매월 작업이 실행되기 전에 Lustre용 Amazon FSx를 사용하여 지연 로딩을 사용하여 Amazon S3의 데이터로 새 파일 시스템을 생성합니다. 작업 기간 동안 새 파일 시스템을 공유 스토리지로 사용합니다. 작업이 완료되면 파일 시스템을 삭제합니다. B. 다중 연결이 활성화된 상태에서 기존 공유 파일 시스템의 데이터를 대규모 Amazon Elastic Block Store(Amazon EBS) 볼륨으로 마이그레이션합니다. Auto Scaling 그룹 시작 템플릿의 사용자 데이터 스크립트를 사용하여 각 인스턴스에 EBS 볼륨을 연결합니다. 작업 기간 동안 EBS 볼륨을 공유 스토리지로 사용합니다. 작업이 완료되면 EBS 볼륨 분리. C. 기존 공유 파일 시스템의 데이터를 S3 Standard 스토리지 클래스를 사용하는 Amazon S3 버킷으로 마이그레이션합니다. 매월 작업이 실행되기 전에 Lustre용 Amazon FSx를 사용하여 일괄 로드를 사용하여 Amazon S3의 데이터로 새 파일 시스템을 생성합니다. 작업 기간 동안 새 파일 시스템을 공유 스토리지로 사용합니다. 작업이 완료되면 파일 시스템을 삭제합니다. D. 기존 공유 파일 시스템에서 Amazon S3 버킷으로 데이터를 마이그레이션합니다. 매월 작업이 실행되기 전에 AWS Storage Gateway를 사용하여 Amazon S3의 데이터로 파일 게이트웨이를 생성합니다. 파일 게이트웨이를 작업의 공유 스토리지로 사용합니다. 작업이 완료되면 파일 게이트웨이를 삭제합니다. 회사에서 온프레미스 데이터 센터에서 실행되는 VMware Infrastructure에서 Amazon EC2로 애플리케이션을 마이그레이션 하려고 합니다. 솔루션 설계자는 마이그레이션 중에 소프트웨어 및 구성 설정을 보존해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. Windows File Server용 Amazon FSx에 데이터 스토어 복제를 시작하도록 AWS DataSync 에이전트를 구성합니다. SMB 공유를 사용하여 VMware 데이터 저장소를 호스팅합니다. VM Import/Export를 사용하여 VM을 Amazon EC2로 이동합니다. B. VMware vSphere 클라이언트를 사용하여 애플리케이션을 OVF(Open Virtualization Format) 형식의 이미지로 내보냅니다. 대상 AWS 리전에 이미지를 저장할 Amazon S3 버킷을 생성합니다. VM 가져오기에 대한 IAM 역할을 생성하고 적용합니다. AWS CLI를 사용하여 EC2 가져오기 명령을 실행합니다. C. CIFS(Common Internet File System) 공유를 내보내도록 파일 서비스용 AWS Storage Gateway를 구성합니다. 공유 폴더에 대한 백업 복사본을 만듭니다. AWS Management Console에 로그인하고 백업 복사본에서 AMI를 생성합니다. AMI를 기반으로 하는 EC2 인스턴스를 시작합니다. D. AWS Systems Manager에서 하이브리드 환경에 대한 관리형 인스턴스 활성화를 생성합니다. 온프레미스 VM에 Systems Manager Agent를 다운로드하고 설치합니다. 관리형 인스턴스가 되도록 Systems Manager에 VM을 등록합니다. AWS Backup을 사용하여 VM의 스냅샷을 생성하고 AMI를 생성합니다. AMI를 기반으로 하는 EC2 인스턴스를 시작합니다. 회사에는 MQTT(Message Queuing Telemetry Transport) 프로토콜을 사용하여 온프레미스 Apache Kafka 서버로 데이터를 보내는 10,000개 이상의 센서가 있습니다. 온프레미스 Kafka 서버는 데이터를 변환한 다음 결과를 Amazon S3 버킷에 객체로 저장합니다. 최근 Kafka 서버가 충돌했습니다. 회사는 서버를 복원하는 동안 센서 데이터를 손실했습니다. 솔루션 설계자는 유사한 발생을 방지 하기 위해 AWS에서 가용성과 확장성이 뛰어난 새로운 디자인을 생성해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 개의 인스턴스를 시작하여 개의 가용 영역에서 2 Amazon EC2 2 활성/대기 구성으로 Kafka 서버를 호스팅합니다. Amazon Route 53에서 도메인 이름을 생성합니다. Route 53 장애 조치 정책을 생성합니다. 센서를 라우팅하여 데이터를 도메인 이름으로 보냅니다. B. 온프레미스 Kafka 서버를 Amazon Managed Streaming for Apache Kafka(Amazon MSK)로 마이그레이션합니다. Amazon MSK 브로커를 가리키는 NLB(Network Load Balancer)를 생성합니다. NLB 상태 확인을 활성화합니다. 데이터를 NLB로 보내도록 센서를 라우팅합니다. C. AWS IoT Core를 배포하고 Amazon Kinesis Data Firehose 전송 스트림에 연결합니다. AWS Lambda 함수를 사용하여 데이터 변환을 처리합니다. 데이터를 AWS IoT Core로 보내도록 센서를 라우팅합니다. D. AWS IoT Core를 배포하고 Amazon EC2 인스턴스를 시작하여 Kafka 서버를 호스팅합니다. 데이터를 EC2 인스턴스로 보내도록 AWS IoT Core를 구성합니다. 데이터를 AWS IoT Core로 보내도록 센서를 라우팅합니다. 회사에는 AWS Organizations의 조직 구성원인 50개의 AWS 계정이 있습니다. 각 계정에는 여러 VPC가 포함됩니다. 회사는 AWS Transit Gateway를 사용하여 각 멤버 계정의 VPC 간에 연결을 설정하려고 합니다. 새 멤버 계정이 생성될 때마다 회사는 새 VPC 및 전송 게이트웨이 연결을 생성하는 프로세스를 자동화하려고 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. 마스터 계정에서 AWS Resource Access Manager를 사용하여 회원 계정과 전송 게이트웨이를 공유합니다. B. 마스터 계정에서 AWS Organizations SCP를 사용하여 회원 계정과 transit gateway를 공유합니다. C. 회원 계정에 새 VPC 및 VPC 전송 게이트웨이 연결을 자동으로 생성하는 마스터 계정에서 AWS CloudFormation 스택 세트를 시작합니다. 전송 게이트웨이 ID를 사용하여 마스터 계정의 전송 게이트웨이와 연결을 연결합니다. D. 멤버 계정에서 새 VPC 및 피어링 전송 게이트웨이 연결을 자동으로 생성하는 마스터 계정에서 AWS CloudFormation 스택 세트를 시작합니다. 전송 게이트웨이 서비스 연결 역할을 사용하여 마스터 계정의 전송 게이트웨이와 연결을 공유합니다. E. 마스터 계정에서 AWS Service Catalog를 사용하여 회원 계정과 전송 게이트웨이를 공유합니다. 회사는 인터넷 연결 Application Load Balancer(ALB) 뒤에 있는 프라이빗 서브넷에 있는 Amazon EC2 인스턴스 플릿에서 애플리케이션을 실행합니다. ALB는 Amazon CloudFront 배포의 오리진입니다. 다양한 AWS 관리형 규칙을 포함하는 AWS WAF 웹 ACL은 CloudFront 배포와 연결됩니다. 회사는 인터넷 트래픽이 ALB에 직접 액세스하지 못하도록 하는 솔루션이 필요합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 기존 웹 ACL에 포함된 것과 동일한 규칙을 포함하는 새 웹 ACL을 생성합니다. 새 웹 ACL을 ALB와 연결합니다. B. 기존 웹 ACL을 ALB와 연결합니다. C. ALB에 보안 그룹 규칙을 추가하여 CloudFront에 대해서만 AWS 관리형 접두사 목록의 트래픽을 허용합니다. D. 다양한 CloudFront IP 주소 범위만 허용하도록 보안 그룹 규칙을 ALB에 추가합니다. 솔루션 설계자는 회사의 온프레미스 데이터 센터를 AWS 클라우드로 마이그레이션하기 위한 비즈니스 사례를 만들어야 합니다. 솔루션 설계자는 모든 회사 서버의 구성 관리 데이터베이스(CMDB) 내보내기를 사용하여 사례를 생성합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 분석을 수행하고 권장 사항을 생성하기 위해 AWS Well-Architected Tool을 사용하여 CMDB 데이터를 가져옵니다. B. Migration Evaluator를 사용하여 분석을 수행합니다. 데이터 가져오기 템플릿을 사용하여 CMDB 내보내기에서 데이터를 업로드합니다. C. 리소스 매칭 규칙을 구현합니다. CMDB 내보내기 및 AWS Price List Bulk API를 사용하여 AWS 서비스에 대해 CMDB 데이터를 대량으로 쿼리합니다. D. 분석을 수행하기 위해 AWS Application Discovery Service를 사용하여 CMDB 데이터를 가져옵니다. 한 글로벌 제조 회사는 대부분의 애플리케이션을 로 마이그레이션할 계획입니다 AWS . 그러나 회사는 데이터 규정 요구 사항 또는 한 자릿수 밀리초의 대기 시간 요구 사항으로 인해 특정 국가 또는 회사의 중앙 온프레미스 데이터 센터에 유지해야 하는 애플리케이션에 대해 우려하고 있습니다. 회사는 또한 제한된 네트워크 인프라가 존재하는 일부 공장 사이트에서 호스팅하는 애플리케이션에 대해 우려하고 있습니다. 회사는 개발자가 애플리케이션을 한 번 빌드하고 온프레미스, 클라우드 또는 하이브리드 아키텍처에 배포할 수 있도록 일관된 개발자 경험을 원합니다. 개발자는 자신에게 익숙한 동일한 도구, API 및 서비스를 사용할 수 있어야 합니다. 이러한 요구 사항을 충족하기 위해 일관된 하이브리드 환경을 제공하는 솔루션은 무엇입니까?. A. 모든 애플리케이션을 규정을 준수하는 가장 가까운 AWS 리전으로 마이그레이션합니다. 중앙 온프레미스 데이터 센터와 AWS 간에 AWS Direct Connect 연결을 설정합니다. Direct Connect 게이트웨이를 배포합니다. B. 데이터 규제 요구 사항 또는 한 자릿수 밀리초의 지연 시간 요구 사항이 있는 애플리케이션에는 AWS Snowball Edge Storage Optimized 장치를 사용하십시오. 장치를 온프레미스에 보관하십시오. AWS Wavelength를 배포하여 공장 사이트에서 워크로드를 호스팅합니다. C. 데이터 규제 요구 사항 또는 한 자릿수 밀리초의 지연 시간 요구 사항이 있는 애플리케이션을 위해 AWS Outposts를 설치합니다. AWS Snowball Edge Compute Optimized 디바이스를 사용하여 공장 사이트에서 워크로드를 호스팅합니다. D. 데이터 규제 요구 사항 또는 한 자릿수 밀리초의 지연 시간 요구 사항이 있는 애플리케이션을 AWS 로컬 영역으로 마이그레이션합니다. AWS Wavelength를 배포하여 공장 사이트에서 워크로드를 호스팅합니다. 회사에서 비즈니스 크리티컬 애플리케이션을 온프레미스 데이터 센터에서 AWS로 마이그레이션할 계획입니다. 회사에는 Microsoft SQL Server Always On 클러스터의 온프레미스 설치가 있습니다. 회사는 AWS 관리형 데이터베이스 서비스로 마이그레이션하려고 합니다. 솔루션 설계자는 AWS에서 이기종 데이터베이스 마이그레이션을 설계해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 백업 및 복원 유틸리티를 사용하여 SQL Server 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. B. AWS Snowball Edge Storage Optimized 디바이스를 사용하여 데이터를 Amazon S3로 전송합니다. MySQL용 Amazon RDS를 설정합니다. BULK INSERT와 같은 SQL Server 기능과 S3 통합을 사용합니다. C. AWS Schema Conversion Tool을 사용하여 데이터베이스 스키마를 MySQL용 Amazon RDS로 변환합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 Amazon RDS로 데이터를 마이그레이션합니다. D. AWS DataSync를 사용하여 온프레미스 스토리지와 Amazon S3 간에 네트워크를 통해 데이터를 마이그레이션합니다. MySQL용 Amazon RDS를 설정합니다. BULK INSERT와 같은 SQL Server 기능과 S3 통합을 사용합니다. 금융 회사는 웹 애플리케이션을 온프레미스에서 AWS로 마이그레이션할 계획입니다. 회사는 타사 보안 도구를 사용하여 애플리케이션에 대한 인바운드 트래픽을 모니터링합니다. 이 회사는 지난 15년 동안 이 보안 도구를 사용해 왔으며 이 도구에는 공급업체에서 제공하는 클라우드 솔루션이 없습니다. 회사의 보안 팀은 보안 도구를 AWS 기술과 통합하는 방법에 대해 우려하고 있습니다. 이 회사는 Amazon EC2 인스턴스에서 AWS로의 애플리케이션 마이그레이션을 배포할 계획입니다. EC2 인스턴스는 전용 VPC의 Auto Scaling 그룹에서 실행됩니다. 회사는 보안 도구를 사용하여 VPC로 들어오고 나가는 모든 패킷을 검사해야 합니다. 이 검사는 실시간으로 이루어져야 하며 애플리케이션의 성능에 영향을 미치지 않아야 합니다. 솔루션 설계자는 AWS 리전 내에서 가용성이 높은 대상 아키텍처를 AWS에서 설계해야 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (두 가지를 선택하세요.). A. 기존 VPC에서 새로운 Auto Scaling 그룹을 만드는 EC2 인스턴스에 보안 도구 배포. B. Network Load Balancer 뒤에 웹 애플리케이션 배포. C. 보안 도구 인스턴스 앞에 Application Load Balancer 배포. D. 트래픽을 보안 도구로 리디렉션하기 위해 각 가용 영역에 게이트웨이 로드 밸런서를 프로비저닝합니다. E. VPC 간의 통신을 용이하게 하기 위해 전송 게이트웨이를 프로비저닝합니다. 회사에는 각각 AWS에 별도의 계정이 있는 여러 비즈니스 단위가 있습니다. 각 사업부는 CIDR 범위가 겹치는 여러 VPC로 자체 네트워크를 관리합니다. 회사의 마케팅 팀은 새로운 내부 응용 프로그램을 만들었고 다른 모든 비즈니스 단위에서 응용 프로그램에 액세스할 수 있도록 하려고 합니다. 솔루션은 사설 IP 주소만 사용해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 각 사업부에 지시하여 사업부의 VPC에 고유한 보조 CIDR 범위를 추가합니다. VPC를 피어링하고 보조 범위의 프라이빗 NAT 게이트웨이를 사용하여 트래픽을 마케팅 팀으로 라우팅합니다. B. 마케팅 계정의 VPC에서 가상 어플라이언스 역할을 할 Amazon EC2 인스턴스를 생성합니다. 마케팅 팀과 각 사업부의 VPC 간에 AWS Site-to-Site VPN 연결을 생성합니다. 필요한 경우 NAT를 수행합니다. C. 마케팅 애플리케이션을 공유할 AWS PrivateLink 엔드포인트 서비스를 생성합니다. 서비스에 연결할 수 있도록 특정 AWS 계정에 권한을 부여합니다. 프라이빗 IP 주소를 사용하여 애플리케이션에 액세스하려면 다른 계정에 인터페이스 VPC 엔드포인트를 생성합니다. D. 프라이빗 서브넷의 마케팅 애플리케이션 앞에 NLB(Network Load Balancer)를 생성합니다. API 게이트웨이 API를 생성합니다. Amazon API Gateway 프라이빗 통합을 사용하여 API를 NLB에 연결합니다. API에 대한 IAM 승인을 활성화합니다. 다른 사업부의 계정에 대한 액세스 권한을 부여합니다. 모험 회사가 모바일 앱에 새로운 기능을 출시했습니다. 사용자는 이 기능을 사용하여 언제든지 하이킹 및 래프팅 사진과 비디오를 업로드할 수 있습니다. 사진과 비디오는 S3 버킷의 Amazon S3 Standard 스토리지에 저장되며 Amazon CloudFront를 통해 제공됩니다. 회사는 스토리지 비용을 최적화해야 합니다. 솔루션 설계자는 업로드된 사진과 비디오의 대부분이 30일 후에 드물게 액세스된다는 것을 발견했습니다. 다만, 업로드된 사진과 영상 중 일부는 30일 이후에 자주 접속되는 경우가 있습니다. 솔루션 설계자는 가능한 가장 낮은 비용으로 사진 및 비디오의 밀리초 검색 가용성을 유지하는 솔루션을 구현해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. S3 버킷에서 S3 Intelligent-Tiering을 구성합니다. B. 30일 후에 S3 Standard에서 S3 Glacier Deep Archive로 이미지 객체 및 비디오 객체를 전환하도록 S3 수명 주기 정책을 구성합니다. C. Amazon S3를 Amazon EC2 인스턴스에 탑재된 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 교체합니다. D. Cache-Control: max-age 헤더를 S3 이미지 객체 및 S3 비디오 객체에 추가합니다. 헤더를 30일로 설정합니다. 비디오 스트리밍 회사는 최근 비디오 공유를 위한 모바일 앱을 출시했습니다. 앱은 us-east-1 리전의 Amazon S3 버킷에 다양한 파일을 업로드합니다. 파일 크기는 1GB에서 10GB입니다. 호주에서 앱에 액세스하는 사용자는 오랜 시간이 걸리는 업로드를 경험했습니다. 때때로 이러한 사용자를 위해 파일이 완전히 업로드되지 않습니다. 솔루션 설계자는 이러한 업로드에 대한 앱의 성능을 개선해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (두 가지를 선택하세요.). A. S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 업로드에 Transfer Acceleration 엔드포인트를 사용하도록 앱을 구성합니다. B. 각 리전에서 업로드를 수신하도록 S3 버킷을 구성합니다. S3 교차 리전 복제를 사용하여 파일을 배포 S3 버킷에 복사합니다. C. 가장 가까운 S3 버킷 리전으로 업로드를 라우팅하도록 지연 시간 기반 라우팅으로 Amazon Route 53을 설정합니다. D. 동영상 파일을 청크로 나누도록 앱을 구성합니다. 멀티파트 업로드를 사용하여 파일을 Amazon S3로 전송합니다. E. 업로드하기 전에 파일에 임의의 접두사를 추가하도록 앱을 수정합니다. 회사는 AWS 클라우드에서 다중 계정 설정을 위해 AWS Organizations를 사용합니다. 회사의 재무 팀에는 AWS Lambda 및 Amazon DynamoDB를 사용하는 데이터 처리 애플리케이션이 있습니다. 회사의 마케팅 팀은 DynamoDB 테이블에 저장된 데이터에 액세스하려고 합니다. DynamoDB 테이블에는 기밀 데이터가 포함되어 있습니다. 마케팅 팀은 DynamoDB 테이블에 있는 데이터의 특정 속성에만 액세스할 수 있습니다. 재무팀과 마케팅팀은 별도의 AWS 계정을 가지고 있습니다. DynamoDB 테이블에 대한 적절한 액세스 권한을 마케팅 팀에 제공하려면 솔루션 설계자가 무엇을 해야 합니까?. A. 마케팅 팀의 AWS 계정에 DynamoDB 테이블의 특정 속성에 대한 액세스 권한을 부여하는 SCP를 생성합니다. 재무 팀의 OU에 SCP를 연결합니다. B. 특정 DynamoDB 속성(세밀한 액세스 제어)에 대한 IAM 정책 조건을 사용하여 재무 팀 계정에서 IAM 역할을 생성합니다. 마케팅 팀의 계정과 신뢰를 구축합니다. 마케팅 팀 계정에서 재무 팀 계정의 IAM 역할을 맡을 수 있는 권한이 있는 IAM 역할을 생성합니다. C. 특정 DynamoDB 속성(세분화된 액세스 제어)에 대한 조건을 포함하는 리소스 기반 IAM 정책을 생성합니다. 정책을 DynamoDB 테이블에 연결합니다. 마케팅 팀 계정에서 재무 팀 계정의 DynamoDB 테이블에 액세스할 수 있는 권한이 있는 IAM 역할을 생성합니다. D. DynamoDB 테이블에 액세스하기 위해 재무 팀의 계정에서 IAM 역할을 생성합니다. IAM 권한 경계를 사용하여 특정 속성에 대한 액세스를 제한합니다. 마케팅 팀 계정에서 재무 팀 계정의 IAM 역할을 맡을 수 있는 권한이 있는 IAM 역할을 생성합니다. 회사는 AWS Organizations의 조직에서 여러 계정을 포함하는 AWS 환경의 비용을 최적화해야 합니다. 이 회사는 3년 전에 비용 최적화 활동을 수행했으며 최근 만료된 Amazon EC2 표준 예약 인스턴스를 구입했습니다. 회사는 3년 더 EC2 인스턴스가 필요합니다. 또한 회사는 새로운 서버리스 워크로드를 배포했습니다. 회사에 가장 많은 비용을 절감할 수 있는 전략은 무엇입니까?. A. 전체 선결제로 추가 3년 기간 동안 동일한 예약 인스턴스를 구매합니다. 추가 컴퓨팅 비용을 충당하기 위해 마스터 계정에서 전체 선결제로 3년 컴퓨팅 절약 계획을 구입하십시오. B. 각 멤버 계정에서 선결제가 없는 1년 Compute Savings Plan을 구매합니다. AWS Cost Management 콘솔에서 Savings Plans 권장 사항을 사용하여 Compute Savings Plan을 선택합니다. C. 각 AWS 지역의 EC2 비용을 충당하기 위해 마스터 계정에서 선결제 없이 3년 EC2 Instance Savings Plan을 구매합니다. 추가 컴퓨팅 비용을 충당하려면 마스터 계정에서 선결제가 없는 3년 컴퓨팅 절약 계획을 구입하십시오. D. 각 멤버 계정에서 전액 선결제로 3년 EC2 Instance Savings Plan을 구매합니다. AWS Cost Management 콘솔의 Savings Plans 권장 사항을 사용하여 EC2 Instance Savings Plan을 선택합니다. 회사는 회사의 기본 온프레미스 애플리케이션이 실패하는 경우 AWS를 사용하여 비즈니스 연속성 솔루션을 생성하려고 합니다. 애플리케이션은 다른 애플리케이션도 실행하는 물리적 서버에서 실행됩니다. 회사에서 마이그레이션할 계획인 온프레미스 애플리케이션은 MySQL 데이터베이스를 데이터 저장소로 사용합니다. 회사의 모든 온프레미스 애플리케이션은 Amazon EC2와 호환되는 운영 체제를 사용합니다. 최소한의 운영 오버헤드로 회사의 목표를 달성할 수 있는 솔루션은 무엇입니까?. A. MySQL 서버를 포함한 소스 서버에 AWS Replication Agent를 설치합니다. 모든 서버에 대한 복제를 설정합니다. 일반 훈련을 위한 테스트 인스턴스를 시작합니다. 실패 이벤트의 경우 워크로드를 장애 조치하기 위해 테스트 인스턴스로 컷오버합니다. B. MySQL 서버를 포함하여 소스 서버에 AWS Replication Agent를 설치합니다. 대상 AWS 리전에서 AWS Elastic Disaster Recovery를 초기화합니다. 시작 설정을 정의합니다. 가장 최근 시점부터 장애 조치(failover) 및 폴백(fallback)을 자주 수행합니다. C. 데이터베이스를 호스팅할 AWS DMS(AWS Database Migration Service) 복제 서버와 대상 Amazon Aurora MySQL DB 클러스터를 생성합니다. DMS 복제 작업을 생성하여 기존 데이터를 대상 DB 클러스터에 복사합니다. 데이터 동기화를 유지하기 위해 로컬 AWS Schema Conversion Tool(AWS SCT) 변경 데이터 캡처(CDC) 작업을 생성합니다.호환되는 기본 AMI로 시작하여 나머지 소프트웨어를 EC2 인스턴스에 설치합니다. D. 온프레미스에 AWS Storage Gateway Volume Gateway를 배포합니다. 모든 온프레미스 서버에 볼륨을 탑재합니다. 애플리케이션과 MySQL 데이터베이스를 새 볼륨에 설치합니다. 정기적으로 스냅샷을 찍습니다. 호환되는 기본 AMI로 시작하여 EC2 인스턴스에 모든 소프트웨어를 설치합니다. EC2 인스턴스에서 볼륨 게이트웨이를 시작합니다. 최신 스냅샷에서 볼륨을복원합니다. 실패 이벤트의 경우 EC2 인스턴스에 새 볼륨을 탑재합니다. 회사는 온프레미스 데이터 센터에서 Git 리포지토리를 호스팅합니다. 이 회사는 Webhook를 사용하여 AWS 클라우드에서 실행되는 기능을 호출합니다. 회사는 Application Load Balancer(ALB)의 대상으로 설정한 Auto Scaling 그룹의 Amazon EC2 인스턴스 세트에서 Webhook 로직을 호스팅합니다. Git 서버는 구성된 Webhook에 대해 ALB를 호출합니다. 회사는 솔루션을 서버리스 아키텍처로 이동하려고 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 각 Webhook에 대해 AWS Lambda 함수 URL을 생성하고 구성합니다. 개별 Lambda 함수 URL을 호출하도록 Git 서버를 업데이트합니다. B. Amazon API Gateway HTTP API를 생성합니다. 별도의 AWS Lambda 함수에서 각 Webhook 로직을 구현합니다. API Gateway 엔드포인트를 호출하도록 Git 서버를 업데이트합니다. C. Webhook 로직을 AWS App Runner에 배포합니다. ALB를 생성하고 App Runner를 대상으로 설정합니다. ALB 엔드포인트를 호출하도록 Git 서버를 업데이트합니다. D. Webhook 로직을 컨테이너화합니다. Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성하고 AWS Fargate에서 Webhook 로직을 실행합니다. Amazon API Gateway REST API를 생성하고 Fargate를 대상으로 설정합니다. API Gateway 엔드포인트를 호출하도록 Git 서버를 업데이트합니다. 회사에서 AWS CloudFormation을 사용하여 인프라를 배포하고 있습니다. 회사는 프로덕션 CloudFormation 스택이 삭제되면 Amazon RDS 데이터베이스 또는 Amazon EBS 볼륨에 저장된 중요한 데이터도 삭제될 수 있다고 우려하고 있습니다. 회사는 사용자가 이런 방식으로 실수로 데이터를 삭제하는 것을 어떻게 방지할 수 있습니까?. A. CloudFormation 템플릿을 수정하여 RDS 및 EBS 리소스에 DeletionPolicy 속성을 추가합니다. B. RDS 및 EBS 리소스 삭제를 허용하지 않는 스택 정책을 구성합니다. C. IAM 정책을 수정하여 "aws:cloudformation:stack-name" 태그가 지정된 RDS 및 EBS 리소스 삭제를 거부합니다. D. AWS Config 규칙을 사용하여 RDS 및 EBS 리소스 삭제를 방지합니다. 회사에는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에 배포된 애플리케이션이 있습니다. 인스턴스는 Auto Scaling 그룹의 일부입니다. 애플리케이션에 예측할 수 없는 워크로드가 있고 확장 및 확장이 자주 발생합니다. 회사의 개발팀은 애플리케이션 로그를 분석하여 애플리케이션 성능을 개선할 방법을 찾고자 합니다. 그러나 인스턴스 축소 후에는 로그를 더 이상 사용할 수 없습니다. 축소 이벤트 후 개발 팀이 애플리케이션 로그를 볼 수 있는 솔루션은 무엇입니까?. A. ALB에 대한 액세스 로그를 활성화합니다. Amazon S3 버킷에 로그를 저장합니다. B. 통합 CloudWatch 에이전트를 사용하여 Amazon CloudWatch Logs에 로그를 게시하도록 EC2 인스턴스를 구성합니다. C. 단계 조정 정책을 사용하도록 Auto Scaling 그룹을 수정합니다. D. AWS X-Ray 추적으로 애플리케이션을 구성합니다. 회사의 솔루션 아키텍트가 다중 애플리케이션 환경의 비용을 분석하고 있습니다. 환경은 단일 AWS 리전의 여러 가용 영역에 배포 됩니다. 최근 인수 후 회사는 AWS Organizations에서 두 조직을 관리합니다. 이 회사는 한 조직에서 AWS PrivateLink 기반 VPC 엔드포인트 서비스로 여러 서비스 공급자 애플리케이션을 만들었습니다. 회사는 다른 조직에서 여러 서비스 소비자 응용 프로그램을 만들었습니다. 데이터 전송 요금은 회사가 예상한 것보다 훨씬 높으며 솔루션 설계자는 비용을 줄여야 합니다. 솔루션 설계자는 개발자가 서비스를 배포할 때 따라야 할 지침을 권장해야 합니다. 이러한 지침은 전체 환경에 대한 데이터 전송 요금을 최소화해야 합니다. 어떤 지침이 이러한 요구 사항을 충족합니까? (두 가지를 선택하세요.). A. AWS Resource Access Manager를 사용하여 서비스 공급자 애플리케이션을 호스팅하는 서브넷을 조직의 다른 계정과 공유하십시오. B. 동일한 조직의 AWS 계정에 서비스 공급자 애플리케이션과 서비스 소비자 애플리케이션을 배치합니다. C. 모든 서비스 공급자 애플리케이션 배포에서 Network Load Balancer에 대한 교차 영역 로드 밸런싱을 끕니다. D. 엔드포인트의 로컬 DNS 이름을 사용하여 서비스 소비자 컴퓨팅 리소스가 가용 영역별 엔드포인트 서비스를 사용하는지 확인합니다. E. 조직의 계획된 가용 영역 간 데이터 전송 사용에 대해 적절한 적용 범위를 제공하는 절약 계획을 만듭니다. 회사는 온프레미스 환경에서 3계층 웹 애플리케이션을 호스팅하고 있습니다. 최근 트래픽 급증으로 인해 가동 중지 시간이 발생하고 재정적으로 상당한 영향을 받았기 때문에 회사 경영진은 애플리케이션을 AWS로 이전하도록 명령했습니다. 애플리케이션은 .NET으로 작성되었으며 MySQL 데이터베이스에 종속됩니다. 솔루션 설계자는 일일 사용자 200,000명의 수요를 충족할 수 있는 확장 가능하고 가용성이 높은 솔루션을 설계해야 합니다. 솔루션 설계자는 적절한 솔루션을 설계하기 위해 어떤 단계를 수행해야 합니까?. A. AWS Elastic Beanstalk를 사용하여 웹 서버 환경과 Amazon RDS MySQL 다중 AZ DB 인스턴스로 새 애플리케이션을 만듭니다. 환경은 여러 가용 영역의 Amazon EC2 Auto Scaling 그룹 앞에서 Network Load Balancer(NLB)를 시작해야 합니다. Amazon Route 53 별칭 레코드를 사용하여 회사 도메인에서 NLB로 트래픽을 라우팅합니다. B. AWS CloudFormation을 사용하여 3개의 가용 영역에 걸쳐 있는 Amazon EC2 Auto Scaling 그룹 앞에 Application Load Balancer(ALB)가 포함된 스택을 시작합니다. 스택은 삭제 유지 정책을 사용하여 Amazon Aurora MySQL DB 클러스터의 다중 AZ 배포를 시작해야 합니다. Amazon Route 53 별칭 레코드를 사용하여 회사 도메인에서 ALB로 트래픽을 라우팅합니다. C. AWS Elastic Beanstalk를 사용하여 각 지역에 Application Load Balancer(ALB)가 있는 두 개의 개별 지역에 걸쳐 있는 자동 확장 웹 서버 환경을 만듭니다. 리전 간 읽기 전용 복제본이 있는 Amazon Aurora MySQL DB 클러스터의 다중 AZ 배포를 생성합니다. 지리 근접 라우팅 정책과 함께 Amazon Route 53을 사용하여 두 리전 간에 트래픽을 라우팅합니다. D. AWS CloudFormation을 사용하여 3개의 가용 영역에 걸쳐 있는 스팟 인스턴스의 Amazon ECS 클러스터 앞에 Application Load Balancer(ALB)가 포함된 스택을 시작합니다. 스택은 스냅샷 삭제 정책으로 Amazon RDS MySQL DB 인스턴스를 시작해야 합니다. Amazon Route 53 별칭 레코드를 사용하여 회사 도메인에서 ALB로 트래픽을 라우팅합니다. 회사는 Amazon S3에서 정적 웹 사이트로 새 애플리케이션을 실행합니다. 이 회사는 프로덕션 AWS 계정에 애플리케이션을 배포했으며 Amazon CloudFront를 사용하여 웹 사이트를 제공합니다. 웹사이트는 Amazon API Gateway REST API를 호출합니다. AWS Lambda 함수는 각 API 메서드를 지원합니다. 회사는 2주마다 CSV 보고서를 생성하여 각 API Lambda 함수의 권장 구성 메모리, 권장 비용, 현재 구성과 권장 사항 간의 가격 차이를 표시하려고 합니다. 회사는 보고서를 S3 버킷에 저장합니다. 최소 개발 시간으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 2주 동안 Amazon CloudWatch Logs에서 각 API Lambda 함수에 대한 지표 데이터를 추출하는 Lambda 함수를 생성 합니다. 데이터를 표 형식으로 정렬합니다. 데이터를 S3 버킷에 .csv 파일로 저장합니다. Amazon EventBridge 규칙을 생성하여 Lambda 함수가 2주마다 실행되도록 예약합니다. B. AWS Compute Optimizer에 옵트인합니다. ExportLambdaFunctionRecommendations 작업을 호출하는 Lambda 함수를 생성합니다. .csv 파일을 S3 버킷으로 내보냅니다. Amazon EventBridge 규칙을 생성하여 Lambda 함수가 2주마다 실행되도록 예약합니다. C. AWS Compute Optimizer에 옵트인합니다. 향상된 인프라 메트릭을 설정합니다. Compute Optimizer 콘솔 내에서 Lambda 권장 사항을 .csv 파일로 내보내는 작업을 예약합니다. 2주마다 S3 버킷에 파일을 저장합니다. D. 프로덕션 계정에 대한 AWS Business Support 플랜을 구매합니다. AWS Trusted Advisor 검사를 위해 AWS Compute Optimizer에 옵트인합니다. Trusted Advisor 콘솔에서 비용 최적화 검사를 .csv 파일로 내보내는 작업을 예약합니다. 2주마다 S3 버킷에 파일을 저장합니다. 한 회사에서 데이터 센터와 간의 하이브리드 솔루션을 AWS 개발했습니다. 이 회사는 애플리케이션 로그를 Amazon CloudWatch로 전송하는 Amazon VPC 및 Amazon EC2 인스턴스를 사용합니다. EC2 인스턴스는 온프레미스에서 호스팅되는 여러 관계형 데이터베이스에서 데이터를 읽습니다. 회사는 거의 실시간으로 데이터베이스에 연결된 EC2 인스턴스를 모니터링하려고 합니다. 이 회사는 이미 온프레미스에서 Splunk를 사용하는 모니터링 솔루션을 보유하고 있습니다. 솔루션 설계자는 네트워킹 트래픽을 Splunk로 보내는 방법을 결정해야 합니다. 솔루션 설계자는 이러한 요구 사항을 어떻게 충족해야 합니까?. A. VPC 흐름 로그를 활성화하고 CloudWatch로 보냅니다. 미리 정의된 내보내기 기능을 사용하여 CloudWatch 로그를 Amazon S3 버킷으로 주기적으로 내보내는 AWS Lambda 함수를 생성합니다. ACCESS_KEY 및 SECRET_KEY AWS 자격 증명을 생성합니다. 해당 자격 증명을 사용하여 S3 버킷에서 로그를 가져오도록 Splunk를 구성합니다. B. Splunk를 대상으로 사용하여 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. CloudWatch Logs 구독 필터에서 보낸 레코드에서 개별 로그 이벤트를 추출하는 Kinesis Data Firehose 스트림 프로세서로 전처리 AWS Lambda 함수를 구성합니다. VPC 흐름 로그를 활성화하고 CloudWatch로 보냅니다. 로그 이벤트를 Kinesis Data Firehose 전송 스트림으로 보내는 CloudWatch Logs 구독을 생성합니다. C. EC2 인스턴스 IP 주소와 함께 데이터베이스에 대한 모든 요청을 기록하도록 회사에 요청합니다. CloudWatch 로그를 Amazon S3 버킷으로 내보냅니다. Amazon Athena를 사용하여 데이터베이스 이름별로 그룹화된 로그를 쿼리합니다. Athena 결과를 다른 S3 버킷으로 내보냅니다. AWS Lambda 함수를 호출하여 S3 버킷에 저장되는 새 파일을 자동으로 Splunk로 보냅니다. D. SQL 애플리케이션용 Amazon Kinesis Data Analytics를 사용하여 CloudWatch 로그를 Amazon Kinesis 데이터 스트림으로 보냅니다. 이벤트를 수집하도록 1분 슬라이딩 윈도우를 구성합니다. 이상 탐지 템플릿을 사용하는 SQL 쿼리를 생성하여 네트워킹 트래픽 이상을 거의 실시간으로 모니터링합니다. Splunk를 대상으로 하는 Amazon Kinesis Data Firehose 전송 스트림으로 결과를 보냅니다. 회사에는 Amazon DynamoDB를 스토리지 백엔드로 사용하는 지연 시간에 민감한 거래 플랫폼이 있습니다. 회사는 온디맨드 용량 모드를 사용하도록 DynamoDB 테이블을 구성했습니다. 솔루션 설계자는 거래 플랫폼의 성능을 개선하기 위한 솔루션을 설계해야 합니다. 새로운 솔루션은 거래 플랫폼의 고가용성을 보장해야 합니다. 최소 대기 시간으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 2노드 DynamoDB Accelerator(DAX) 클러스터를 생성합니다. DAX를 사용하여 데이터를 읽고 쓰도록 애플리케이션을 구성합니다. B. 3노드 DynamoDB Accelerator(DAX) 클러스터를 생성합니다. DAX를 사용하여 데이터를 읽고 DynamoDB 테이블에 직접 데이터를 쓰도록 애플리케이션을 구성합니다. C. 3노드 DynamoDB Accelerator(DAX) 클러스터를 생성합니다. DynamoDB 테이블에서 직접 데이터를 읽고 DAX를 사용하여 데이터를 쓰도록 애플리케이션을 구성합니다. D. 단일 노드 DynamoDB Accelerator(DAX) 클러스터를 생성합니다. DAX를 사용하여 데이터를 읽고 DynamoDB 테이블에 직접 데이터를 쓰도록 애플리케이션을 구성합니다. 금융 서비스 회사는 신용 카드 서비스 파트너로부터 정기적인 데이터 피드를 받습니다. 약 5,000개의 레코드가 15분마다 일반 텍스트로 전송되고 HTTPS를 통해 서버 측 암호화를 통해 Amazon S3 버킷으로 직접 전달됩니다. 이 피드에는 민감한 신용 카드 기본 계정 번호 (PAN) 데이터가 포함되어 있습니다. 회사는 추가 내부 처리를 위해 데이터를 다른 S3 버킷으로 보내기 전에 자동으로 PAN을 마스킹해야 합니다. 회사는 또한 특정 필드를 제거 및 병합한 다음 레코드를 JSON 형식으로 변환해야 합니다. 또한 향후 추가 피드가 추가될 가능성이 있으므로 모든 디자인을 쉽게 확장할 수 있어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 파일 전송 시 각 레코드를 추출하여 Amazon SQS 대기열에 쓰는 AWS Lambda 함수를 트리거합니다. 레코드를 처리하기 위해 새 메시지가 SQS 대기열에 도착하면 다른 Lambda 함수를 트리거하여 결과를 Amazon S3의 임시 위치에 기록합니다. SQS 대기열이 비어 있으면 최종 Lambda 함수를 트리거하여 레코드를 JSON 형식으로 변환하고 내부 처리를 위해 결과를 다른 S3 버킷으로 보냅니다. B. 파일 전송 시 각 레코드를 추출하여 Amazon SQS 대기열에 쓰는 AWS Lambda 함수를 트리거합니다. SQS 대기열에 메시지가 포함된 경우 단일 인스턴스로 자동 확장되도록 AWS Fargate 컨테이너 애플리케이션을 구성합니다. 애플리케이션이 각 레코드를 처리하고 레코드를 JSON 형식으로 변환하도록 합니다. 대기열이 비어 있으면 내부 처리를 위해 결과를 다른 S3 버킷으로 보내고 AWS Fargate 인스턴스를 축소합니다. C. 데이터 피드 형식을 기반으로 AWS Glue 크롤러 및 사용자 지정 분류자를 생성하고 일치시킬 테이블 정의를 구축합니다. 파일 전송 시 AWS Lambda 함수를 트리거하여 AWS Glue ETL 작업을 시작하여 처리 및 변환 요구 사항에 따라 전체 레코드를 변환합니다. 출력 형식을 JSON으로 정의합니다. 완료되면 ETL 작업이 내부 처리를 위해 결과를 다른 S3 버킷으로 보내도록 합니다. D. 데이터 피드 형식을 기반으로 AWS Glue 크롤러 및 사용자 지정 분류자를 생성하고 일치시킬 테이블 정의를 구축합니다. 파일 전송에 대해 Amazon Athena 쿼리를 수행하여 처리 및 변환 요구 사항에 따라 전체 레코드를 변환하는 Amazon EMR ETL 작업을 시작합니다. 출력 형식을 JSON으로 정의합니다. 완료되면 내부 처리를 위해 결과를 다른 S3 버킷으로 보내고 EMR 클러스터를 축소합니다. 날씨 서비스는 eu-west-1 리전의 AWS에서 호스팅되는 웹 애플리케이션의 고해상도 날씨 지도를 제공합니다. 날씨 지도는 자주 업데이트되며 정적 HTML 콘텐츠와 함께 Amazon S3에 저장됩니다. 웹 애플리케이션은 Amazon CloudFront가 전면에 있습니다. 이 회사는 최근 us-east-1 지역의 사용자에게 서비스를 제공하도록 확장했으며 이러한 신규 사용자는 각각의 날씨 지도 보기가 때때로 느리다고 보고합니다. us-east-1 성능 문제를 해결하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. eu-west-1에서 S3 버킷에 대한 AWS Global Accelerator 엔드포인트를 구성합니다. us-east-1에서 TCP 포트 80 및 443에 대한 엔드포인트 그룹을 구성합니다. B. us-east-1에서 새 S3 버킷을 생성합니다. eu-west-1의 S3 버킷에서 동기화하도록 S3 교차 리전 복제를 구성합니다. C. Lambda@Edge를 사용하여 us-east-1에서 S3 Transfer Acceleration 엔드포인트를 사용하도록 북미에서 요청을 수정합니다. D. Lambda@Edge를 사용하여 북미에서 us-east-1의 S3 버킷을 사용하도록 요청을 수정합니다. E. us-east-1에 대한 AWS Global Accelerator 엔드포인트를 CloudFront 배포의 오리진으로 구성합니다. Lambda@Edge를 사용하여 북미에서 새 오리진을 사용하도록 요청을 수정합니다. 회사에서 사용자 인증을 위해 온프레미스 Active Directory 서비스를 사용하고 있습니다. 회사는 동일한 인증 서비스를 사용하여 AWS Organizations를 사용하는 회사의 AWS 계정에 로그인하려고 합니다. 온프레미스 환경과 회사의 모든 AWS 계정 간에 AWS Site-to-Site VPN 연결이 이미 존재합니다. 회사의 보안 정책에 따라 사용자 그룹 및 역할에 따라 계정에 대한 조건부 액세스가 필요합니다. 사용자 ID는 단일 위치에서 관리되어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. SAML 2.0을 사용하여 Active Directory에 연결하도록 AWS IAM Identity Center(AWS Single Sign-On)를 구성합 니다. SCIM(System for Cross-domain Identity Management) v2.0 프로토콜을 사용하여 자동 프로비저닝을 활성화 합니다. ABAC(속성 기반 액세스 제어)를 사용하여 AWS 계정에 대한 액세스 권한을 부여합니다. B. IAM Identity Center를 자격 증명 소스로 사용하여 AWS IAM Identity Center(AWS Single Sign-On)를 구성합니다. SCIM(System for Cross-domain Identity Management) v2.0 프로토콜을 사용하여 자동 프로비저닝을 활성화합니다. IAM Identity Center 권한 집합을 사용하여 AWS 계정에 대한 액세스 권한을 부여합니다. C. 회사의 AWS 계정 중 하나에서 SAML 2.0 자격 증명 공급자를 사용하도록 AWS Identity and Access Management (IAM)를 구성합니다. 연동 사용자에 매핑된 IAM 사용자를 프로비저닝합니다. Active Directory의 적절한 그룹에 해당하는 액세스 권한을 부여합니다. 교차 계정 IAM 사용자를 사용하여 필요한 AWS 계정에 대한 액세스 권한을 부여합니다. D. 회사의 AWS 계정 중 하나에서 OIDC(OpenID Connect) 자격 증명 공급자를 사용하도록 AWS Identity and Access Management(IAM)를 구성합니다. Active Directory의 적절한 그룹에 해당하는 연동 사용자의 AWS 계정에 대한 액세스 권한을 부여하는 IAM 역할을 프로비저닝합니다. 교차 계정 IAM 역할을 사용하여 필요한 AWS 계정에 대한 액세스 권한을 부여합니다. AWS Organizations를 사용하는 회사는 개발자가 AWS를 실험할 수 있도록 합니다. 회사에서 배포한 랜딩 존의 일부로 개발자는 회사 이메일 주소를 사용하여 계정을 요청합니다. 회사는 개발자가 비용이 많이 드는 서비스를 시작하거나 불필요하게 서비스를 실행하지 않도록 하기를 원합니다. 회사는 개발자에게 AWS 비용을 제한하기 위해 고정된 월 예산을 제공해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 고정된 월 계정 사용 한도를 설정하기 위해 SCP를 생성합니다. 개발자 계정에 SCP를 적용합니다. B. AWS Budget을 사용하여 계정 생성 프로세스의 일부로 각 개발자 계정에 대해 고정된 월 예산을 생성합니다. C. 고가의 서비스 및 구성 요소에 대한 액세스를 거부하는 SCP를 만듭니다. 개발자 계정에 SCP를 적용합니다. D. 비용이 많이 드는 서비스 및 구성 요소에 대한 액세스를 거부하는 IAM 정책을 만듭니다. 개발자 계정에 IAM 정책을 적용합니다. E. 예산 금액에 도달하면 서비스를 종료하는 AWS 예산 알림 작업을 생성합니다. 모든 서비스를 종료하도록 조치를 구성하십시오. F. 예산 금액에 도달하면 Amazon Simple Notification Service(Amazon SNS) 알림을 보내는 AWS Budgets 알림 작업을 생성합니다. 모든 서비스를 종료하려면 AWS Lambda 함수를 호출하십시오. 회사는 AWS에서 웹 애플리케이션을 호스팅할 계획이며 Amazon EC2 인스턴스 그룹 전체에서 트래픽 로드 밸런싱을 원합니다. 보안 요구 사항 중 하나는 클라이언트와 웹 서버 간에 전송되는 종단 간 암호화를 활성화하는 것입니다. 이 요구 사항을 충족하는 솔루션은 무엇입니까?. A. ALB(Application Load Balancer) 뒤에 EC2 인스턴스를 배치합니다. AWS Certificate Manager(ACM)를 사용하여 SSL 인증서를 프로비저닝하고 SSL 인증서를 ALB와 연결합니다. SSL 인증서를 내보내고 각 EC2 인스턴스에 설치합니다. 포트 443에서 수신하고 인스턴스의 포트 443으로 트래픽을 전달하도록 ALB를 구성합니다. B. EC2 인스턴스를 대상 그룹과 연결합니다. AWS Certificate Manager(ACM)를 사용하여 SSL 인증서를 프로비저닝합니다. Amazon CloudFront 배포를 생성하고 SSL 인증서를 사용하도록 구성합니다. 대상 그룹을 오리진 서버로 사용하도록 CloudFront를 설정합니다. C. ALB(Application Load Balancer) 뒤에 EC2 인스턴스 배치 AWS Certificate Manager(ACM)를 사용하여 SSL 인증서를 프로비저닝하고 SSL 인증서를 ALB와 연결합니다. Third-party SSL 인증서를 프로비저닝하고 각 EC2 인스턴스에 설치합니다. 포트 443에서 수신하고 인스턴스의 포트 443으로 트래픽을 전달하도록 ALB를 구성합니다. D. NLB(Network Load Balancer) 뒤에 EC2 인스턴스를 배치합니다. 타사 SSL 인증서를 프로비저닝하고 NLB 및 각 EC2 인스턴스에 설치합니다. 포트 443에서 수신하고 인스턴스의 포트 443으로 트래픽을 전달하도록 NLB를 구성합니다. 소매 회사는 AWS Organizations에서 조직의 일부가 되도록 AWS 계정을 구성했습니다. 회사는 통합 청구를 설정하고 재무,영업, 인사(HR), 마케팅 및 운영과 같은 OU에 부서를 매핑했습니다. 각 OU에는 부서 내의 각 환경에 대해 하나씩 여러 AWS 계정이 있습니다. 이러한 환경은 개발, 테스트, 사전 프로덕션 및 프로덕션입니다. HR 부서는 3개월 후에 출시될 새로운 시스템을 발표하고 있습니다. 준비 과정에서 HR 부서는 프로덕션 AWS 계정에서 여러 예약 인스턴스(RI)를 구매했습니다. HR 부서에서 이 계정에 새 애플리케이션을 설치합니다. HR 부서는 다른 부서가 RI 할인을 공유할 수 없도록 하려고 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. HR 부서의 프로덕션 계정에 대한 AWS Billing and Cost Management 콘솔에서 RI 공유를 끕니다. B. 조직에서 HR 부서의 프로덕션 AWS 계정을 제거합니다. 통합 결제 구성에만 계정 10을 추가합니다. C. AWS Billing and Cost Management 콘솔에서 조직의 마스터 계정 사용 10 HR 부서 프로덕션 AWS 계정에 대한 RI 공유를 끕니다. D. RI에 대한 액세스를 제한하기 위해 조직에서 SCP를 생성합니다. 다른 부서의 OU에 SCP를 적용합니다. SaaS(Software as a Service) 기반 회사는 솔루션의 A3 부분을 고객에게 사례 관리 솔루션을 제공합니다. 이 회사는 독립형 SMTP(Simple Mail Transfer Protocol) 서버를 사용하여 애플리케이션에서 이메일 메시지를 보냅니다. 애플리케이션은 또한 고객에게 이메일 메시지를 보내기 전에 고객 데이터를 채우는 확인 이메일 메시지에 대한 이메일 템플릿을 저장합니다. 회사는 이 메시징 기능을 AWS 클라우드로 마이그레이션할 계획이며 운영 오버헤드를 최소화해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. AWS Marketplace의 AMI를 사용하여 Amazon EC2 인스턴스에 SMTP 서버를 설정합니다. 이메일 템플릿을 Amazon S3 버킷에 저장합니다. S3 버킷에서 템플릿을 검색하고 애플리케이션의 고객 데이터를 템플릿과 병합하는 AWS Lambda 함수를 생성합니다. Lambda 함수에서 SDK를 사용하여 이메일 메시지를 보냅니다. B. 이메일 메시지를 보내도록 Amazon Simple Email Service(Amazon SES)를 설정합니다. 이메일 템플릿을 Amazon S3 버킷에 저장합니다. S3 버킷에서 템플릿을 검색하고 애플리케이션의 고객 데이터를 템플릿과 병합하는 AWS Lambda 함수를 생성합니다. Lambda 함수에서 SDK를 사용하여 이메일 메시지를 보냅니다. C. AWS Marketplace의 AMI를 사용하여 Amazon EC2 인스턴스에 SMTP 서버를 설정합니다. 고객 데이터에 대한 파라미터를 사용하여 이메일 템플릿을 Amazon Simple Email Service(Amazon SES)에 저장합니다. SES 템플릿을 호출하고 고객 데이터를 전달하여 파라미터를 대체하는 AWS Lambda 함수를 생성합니다. AWS Marketplace SMTP 서버를 사용하여 이메일 메시지를 보냅니다. D. 이메일 메시지를 보내도록 Amazon Simple Email Service(Amazon SES)를 설정합니다. 고객 데이터에 대한 파라미터를 사용하여 Amazon SES에 이메일 템플릿을 저장합니다. SendTemplatedEmail API 작업을 호출하고 고객 데이터를 전달하여 파라미터와 이메일 대상을 대체하는 AWS Lambda 함수를 생성합니다. 한 회사가 온프레미스 데이터 센터와 AWS 클라우드의 서버를 포함한 하이브리드 환경을 구축하고 있습니다. 회사는 세 개의 VPC(가상 사설 네트워크)를 각기 다른 AWS 리전에 배포하였습니다. 또한, 데이터 센터와 가장 가까운 리전에서 AWS Direct Connect 연결을 설정하였습니다. 회사는 온프레미스 데이터 센터의 서버가 모든 세 개의 VPC에 있는 EC2 인스턴스에 접근해야 합니다. 또한, 온프레미스 데이터센터의 서버는 AWS의 공용 서비스에도 접근해야 합니다. 가장 저렴한 비용으로 이러한 요구 사항을 충족시키기 위해 어떤 단계 조합이 필요한가요? (두 개를 선택하십시오.). A. 데이터 센터와 가장 가까운 리전에 Direct Connect 게이트웨이를 생성합니다. Direct Connect 연결을 Direct Connect 게이트웨이에 첨부합니다. B. Direct Connect 게이트웨이를 사용하여 다른 두 리전의 VPC를 연결합니다. C. 온프레미스 데이터 센터에서 다른 두 리전으로 추가적인 Direct Connect 연결을 설정합니다. D. Private VIF를 생성합니다. 개인 VIF를 통해 기존 Direct Connect 연결과 연결된 VPC에서 AWS Site-to-Site VPN 연결을 설정합니다. E. Public VIF를 생성합니다. 공용 VIF를 통해 기존 Direct Connect 연결과 연결된 VPC에서 AWS Site-to-Site VPN 연결을 설정합니다. F. VPC 피어링을 사용하여 리전간에 VPC 간의 연결을 설정합니다. 기존 Direct Connect 연결과 연결된 개인 VIF를 사용하여 피어링된 VPC와 연결합니다. 스마트 자동차를 제조하는 회사입니다. 회사는 맞춤형 애플리케이션을 사용하여 차량 데이터를 수집합니다. 차량은 MQTT 프로토콜을 사용하여 애플리케이션에 연결합니다. 회사는 5분 간격으로 데이터를 처리합니다. 그런 다음 회사는 차량 텔레매틱스 데이터를 온프레미스 스토리지에 복사합니다. 맞춤형 애플리케이션은 이 데이터를 분석하여 이상을 감지합니다. 데이터를 전송하는 차량의 수는 지속적으로 증가하고 있습니다. 최신 차량은 많은 양의 데이터를 생성합니다. 온프레미스 스토리지 솔루션은 피크 트래픽에 맞게 확장할 수 없으므로 데이터 손실이 발생합니다. 회사는 솔루션을 현대화하고 솔루션을 AWS로 마이그레이션하여 확장 문제를 해결해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS IoT Greengrass를 사용하여 차량 데이터를 Amazon Managed Streaming for Apache Kafka(Amazon MSK)로 보냅니다. Amazon S3에 데이터를 저장할 Apache Kafka 애플리케이션을 생성합니다. Amazon SageMaker 에서 사전 훈련된 모델을 사용하여 이상을 감지합니다. B. AWS IoT Core를 사용하여 차량 데이터를 수신합니다. Amazon S3에 데이터를 저장하는 Amazon Kinesis Data Firehose 전송 스트림으로 데이터를 라우팅하도록 규칙을 구성합니다. 이상을 감지하기 위해 전송 스트림에서 읽는 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다. C. AWS IoT FleetWise를 사용하여 차량 데이터를 수집합니다. 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. Amazon Kinesis Data Firehose 전송 스트림을 사용하여 Amazon S3에 데이터를 저장합니다. AWS Glue에 내장된 기계 학습 변환을 사용하여 이상을 감지합니다. D. RabbitMQ용 Amazon MQ를 사용하여 차량 데이터를 수집합니다. 데이터를 Amazon Kinesis Data Firehose 전송 스트림으로 보내 Amazon S3에 데이터를 저장합니다. Amazon Lookout for Metrics를 사용하여 이상 징후를 탐지하십시오. 한 회사가 최근 AWS 클라우드에서 새로운 애플리케이션 워크로드를 호스팅하기 시작했습니다. 회사는 Amazon EC2 인스턴스를 사용하고 있습니다. Amazon Elastic File System(Amazon EFS) 파일 시스템 및 Amazon RDS DB 인스턴스. 규정 및 비즈니스 요구 사항을 충족하기 위해 회사는 데이터 백업에 대해 다음과 같이 변경해야 합니다. * 맞춤형 일일, 주간 및 월간 요구사항에 따라 백업을 보존해야 함 * 백업은 캡처 직후 하나 이상의 다른 AWS 리전에 복제되어야 합니다. * 백업 솔루션은 AWS 환경 전체에서 단일 백업 상태 소스를 제공해야 합니다. * 백업 솔루션은 리소스 백업 실패 시 즉시 알림을 보내야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 각 보존 요구 사항에 대한 백업 규칙을 사용하여 AWS Backup 계획을 생성합니다. B. 백업을 다른 지역으로 복사하도록 AWS Backup 계획을 구성합니다. C. 백업을 다른 리전에 복제하고 실패가 발생하면 알림을 보내는 AWS Lambda 함수를 생성합니다. D. 백업 계획에 Amazon Simple Notification Service(Amazon SNS) 주제를 추가하여 BACKUP_JOB_COMPLETED 이외의 상태인 완료된 작업에 대한 알림을 보냅니다. E. 각 보존 요구 사항에 대해 Amazon Data Lifecycle Manager(Amazon DLM) 스냅샷 수명 주기 정책을 생성합니다. F. 각 데이터베이스에 RDS 스냅샷을 설정합니다. 금융 서비스 회사는 수백만 건의 과거 주식 거래를 Amazon DynamoDB 테이블에 로드했습니다. 테이블은 온디맨드 용량 모드를 사용합니다. 매일 자정에 한 번씩 수백만 개의 새 레코드가 테이블에 로드됩니다. 테이블에 대한 애플리케이션 읽기 활동은 하루종일 폭발적으로 발생합니다. 제한된 키 집합이 반복적으로 조회됩니다. 회사는 DynamoDB와 관련된 비용을 줄여야 합니다. 이 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 전략을 권장해야 합니까?. A. DynamoDB 테이블 앞에 Amazon ElastiCache 클러스터를 배포합니다. B. DynamoDB Accelerator(DAX)를 배포합니다. DynamoDB Auto Scaling을 구성합니다. 비용 탐색기에서 저축 플랜을 구매하십시오. C. 프로비저닝된 용량 모드를 사용합니다. 비용 탐색기에서 저축 플랜을 구매하십시오. D. DynamoDB Accelerator(DAX)를 배포합니다. 프로비저닝된 용량 모드를 사용합니다. DynamoDB Auto Scaling을 구성합니다. 회사는 온프레미스 데이터 센터에서 AWS로 3계층 웹 애플리케이션을 마이그레이션할 계획입니다. 이 회사는 서버 측 JavaScript 라이브러리를 사용하여 UI를 개발했습니다. 비즈니스 로직 및 API 계층은 Python 기반 웹 프레임워크를 사용합니다. 데이터 계층은 MySQL 데이터베이스에서 실행됩니다. 회사는 비즈니스 요구 사항을 충족하기 위해 응용 프로그램을 사용자 정의했습니다. 회사는 애플리케이션을 재설계하기를 원하지 않습니다. 회사는 최소한의 개발로 애플리케이션을 AWS로 플랫폼을 변경하는 솔루션이 필요합니다. 솔루션은 가용성이 높아야 하며 운영 오버헤드를 줄여야 합니다. 이러한 요구 사항을 충족하는 솔루션은무엇입니까?. A. Amazon S3의 정적 웹사이트에 UI를 배포합니다. Amazon CloudFront를 사용하여 웹 사이트를 제공하십시오. Docker 이미지에서 비즈니스 로직을 빌드합니다. Amazon Elastic Container Registry(Amazon ECR)에 이미지를 저장합니다. Fargate 시작 유형과 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하여 앞에 Application Load Balancer가 있는 웹 사이트를 호스팅합니다. Amazon Aurora MySQL DB 클러스터에 데이터 계층을 배포합니다. B. Docker 이미지에서 UI 및 비즈니스 로직을 구축합니다. Amazon Elastic Container Registry(Amazon ECR)에 이미지를 저장합니다. Fargate 시작 유형과 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하여 전면에 Application Load Balancer가 있는 UI 및 비즈니스 논리 애플리케이션을 호스팅합니다. 데이터베이스를 Amazon RDS for MySQL 다중 AZ DB 인스턴스로 마이그레이션합니다. C. Amazon S3의 정적 웹 사이트에 UI를 배포합니다. Amazon CloudFront를 사용하여 웹 사이트를 제공하십시오. 비즈니스 로직을 AWS Lambda 함수로 변환합니다. 기능을 Amazon API Gateway와 통합합니다. Amazon Aurora MySQL DB 클러스터에 데이터 계층을 배포합니다. D. Docker 이미지에서 UI 및 비즈니스 로직을 빌드합니다. Amazon Elastic Container Registry(Amazon ECR)에 이미지를 저장합니다. Fargate 프로필과 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하여 UI 및 비즈니스 로직을 호스팅합니다. AWS Database Migration Service(AWS DMS)를 사용하여 데이터 계층을 Amazon DynamoDB로 마이그레이션합니다. 회사에서 양식 처리 애플리케이션을 AWS로 마이그레이션했습니다. 사용자가 애플리케이션과 상호 작용할 때 웹 애플리케이션을 통해 스캔한 양식을 파일로 업로드합니다. 데이터베이스는 사용자 메타데이터와 Amazon S3에 저장된 파일에 대한 참조를 저장합니다. 웹 애플리케이션은 Amazon EC2 인스턴스와 Amazon RDS for PostgreSQL 데이터베이스에서 실행됩니다. 양식이 업로드되면 애플리케이션은 Amazon Simple Notification Service(Amazon SNS)를 통해 팀에 알림을 보냅니다. 그러면 팀원이 로그인하여 각 양식을 처리합니다. 팀원은 API를 사용하는 다른 시스템에 정보를 입력하기 전에 양식에서 데이터 유효성 검사를 수행하고 관련 데이터를 추출합니다. 솔루션 설계자는 양식의 수동 처리를 자동화해야 합니다. 솔루션은 정확한 양식 추출을 제공해야 합니다. 출시 시간을 최소화하고 장기 운영 오버헤드를 최소화합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 양식에서 광학 문자 인식(OCR)을 수행하기 위해 사용자 정의 라이브러리를 개발하십시오. 라이브러리를 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터에 애플리케이션 계층으로 배포합니다. 양식이 업로드될 때 이 계층을 사용하여 양식을 처리하십시오. 출력을 Amazon S3에 저장합니다. 데이터를 Amazon DynamoDB 테이블로 추출하여 이 출력을 구문 분석합니다. 대상 시스템의 APL에 데이터를 제출하십시오. EC2 인스턴스에서 새 애플리케이션 계층을 호스팅합니다. B. AWS Step Functions 및 AWS Lambda를 사용하는 애플리케이션 계층으로 시스템을 확장합니다. 양식이 업로드될 때 양식에서 광학 문자 인식(OCR)을 수행하기 위해 EC2 인스턴스에서 훈련되고 호스팅되는 인공 지능 및 기계 학습(AI/ML) 모델을 사용하도록 이 계층을 구성합니다. 출력을 Amazon S3에 저장합니다. 애플리케이션 계층 내에서 필요한 데이터를 추출하여 이 출력을 구문 분석하십시오. 대상 시스템의 API에 데이터를 제출합니다. C. EC2 인스턴스에서 새 애플리케이션 계층을 호스팅합니다. 양식에서 OCR(광학 문자 인식)을 수행하기 위해 Amazon SageMaker에서 교육 및 호스팅되는 AI/ML(인공 지능 및 기계 팀 구성) 모델을 호스팅하는 엔드포인트를 호출하려면 이 계층을 사용하십시오. 출력을 Amazon ElastiCache에 저장합니다. 애플리케이션 계층 내에서 필요한 데이터를 추출하여 이 출력을 구문 분석하십시오. 대상 시스템의 API에 데이터를 제출합니다. D. AWS Step Functions 및 AWS Lambda를 사용하는 애플리케이션 계층으로 시스템을 확장합니다. 양식이 업로드될 때 Amazon Textract 및 Amazon Comprehend를 사용하여 양식에서 OCR(광학 문자 인식)을 수행하도록 이 계층을 구성합니다. 출력을 Amazon S3에 저장합니다. 애플리케이션 계층 내에서 필요한 데이터를 추출하여 이 출력을 구문 분석하십시오. 대상 시스템의 API에 데이터를 제출합니다. 회사에는 애플리케이션을 개발하고 호스팅하기 위해 각각 5개의 AWS 계정을 생성한 5개의 개발 팀이 있습니다. 지출을 추적하기 위해 개발 팀은 매월 각 계정에 로그인하고 AWS Billing and Cost Management 콘솔에서 현재 비용을 기록하고 회사의 재무팀에 정보를 제공합니다. 이 회사는 엄격한 규정 준수 요구 사항이 있으며 리소스가 미국의 AWS 리전에서만 생성되도록 해야 합니다. 그러나 일부 리소스는 다른 리전에서 생성되었습니다. 솔루션 설계자는 재무 팀이 모든 계정에 대한 지출을 추적하고 통합할 수 있는 기능을 제공하는 솔루션을 구현해야 합니다. 솔루션은 또한 회사가 미국 지역에서만 리소스를 생성할 수 있도록 해야 합니다. 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 마스터 계정 역할을 할 새 계정을 만듭니다. 재무 팀을 위한 Amazon S3 버킷을 생성합니다. AWS 비용 및 사용 보고서를 사용하여 월별 보고서를 생성하고 재무 팀의 S3 버킷에 데이터를 저장합니다. B. 마스터 계정 역할을 할 새 계정을 생성합니다. 모든 기능이 활성화된 상태에서 AWS Organizations에 조직을 배포합니다. 모든 기존 계정을 조직에 초대합니다. 각 계정이 초대를 수락하는지 확인하십시오. C. 모든 개발 팀을 포함하는 OU를 만듭니다. 미국에 있는 리전에서만 리소스 생성을 허용하는 SCP를 생성합니다. SCP를 OU에 적용합니다. D. 모든 개발 팀을 포함하는 OU를 만듭니다. 미국 이외의 리전에서 리소스 생성을 거부하는 SCP를 만듭니다. SCP를 OU에 적용합니다. E. 마스터 계정에서 IAM 역할을 생성합니다. Billing and Cost Management 콘솔을 볼 수 있는 권한이 포함된 정책을 연결합니다. 재무 팀 사용자가 역할을 맡도록 허용합니다. AWS Cost Explorer와 Billing and Cost Management 콘솔을 사용하여 비용을 분석합니다. F. 각 AWS 계정에서 IAM 역할을 생성합니다. Billing and Cost Management 콘솔을 볼 수 있는 권한이 포함된 정책을 연결합니다. 재무 팀 사용자가 역할을 맡도록 허용합니다. 회사는 회사의 데이터 센터에 있는 VM에 복잡한 종속성이 있는 Java 애플리케이션을 실행합니다. 응용 프로그램이 안정적입니다. 하지만 회사는 기술 스택을 현대화하고자 합니다. 회사는 애플리케이션을 AWS로 마이그레이션하고 서버를 유지 관리하기 위한 관리 오버헤드를 최소화하려고 합니다. 최소한의 코드 변경으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS App2Container를 사용하여 AWS Fargate의 Amazon Elastic Container Service(Amazon ECS)로 애플리케이션을 마이그레이션합니다. Amazon Elastic Container Registry(Amazon ECR)에 컨테이너 이미지를 저장합니다. ECS 작업 실행 역할 권한 10에 ECR 이미지 리포지토리 액세스 권한을 부여합니다. Application Load Balancer(ALB)를 사용하도록 Amazon ECS를 구성합니다. ALB를 사용하여 애플리케이션과 상호 작용합니다. B. 애플리케이션 코드를 AWS Lambda에서 실행되는 컨테이너로 마이그레이션합니다. Lambda 통합으로 Amazon API Gateway REST API를 구축합니다. API 게이트웨이를 사용하여 애플리케이션과 상호 작용합니다. C. AWS App2Container를 사용하여 EKS 관리형 노드 그룹의 Amazon Elastic Kubernetes Service(Amazon EKS) 로 애플리케이션을 마이그레이션합니다. Amazon Elastic Container Registry(Amazon ECR)에 컨테이너 이미지를 저장합니다. ECR 이미지 리포지토리에 액세스할 수 있는 권한을 EKS 노드에 부여합니다. Amazon API Gateway를 사용하여 애플리케이션과 상호 작용합니다. D. 애플리케이션 코드를 AWS Lambda에서 실행되는 컨테이너로 마이그레이션합니다. Application Load Balancer(ALB)를 사용하도록 Lambda를 구성합니다. ALB를 사용하여 애플리케이션과 상호 작용합니다. 솔루션 설계자는 웹을 사용하는 3계층 애플리케이션용 솔루션에 대한 참조 아키텍처를 정의해야 합니다. 애플리케이션 및 NoSQL 데이터 계층. 참조 아키텍처는 다음 요구 사항을 충족해야 합니다. * AWS 리전 내 고가용성 * 재해 복구를 위해 1분 안에 다른 AWS 리전으로 장애 조치 가능 * 사용자 경험에 미치는 영향을 최소화 하면서 가장 효율적인 솔루션 제공 이러한 요구 사항을 충족합니까? (3개를 선택하세요.). A. 선택한 두 리전에서 100/0으로 설정된 Amazon Route 53 가중치 라우팅 정책을 사용합니다. TTL(Time to Live)을 1시간으로 설정합니다. B. 기본 지역에서 재해 복구 지역으로의 장애 조치를 위해 Amazon Route 53 장애 조치 라우팅 정책을 사용하십시오. TTL (Time to Live)을 30초로 설정합니다. C. 선택한 두 리전에서 데이터에 액세스할 수 있도록 Amazon DynamoDB 내에서 전역 테이블을 사용합니다. D. 기본 리전의 Amazon DynamoDB 테이블에서 60분마다 데이터를 백업한 다음 데이터를 Amazon S3에 씁니다. S3 교차리전 복제를 사용하여 기본 리전에서 재해 복구 리전으로 데이터를 복사합니다. 재해 복구 시나리오에서 스크립트가 데이터를DynamoDB로 가져오도록 합니다. E. 리전의 여러 가용 영역에서 웹 및 애플리케이션 계층에 대해 Auto Scaling 그룹을 사용하여 상시 대기 모델을 구현합니다. 최소 서버 수에는 영역 예약 인스턴스를 사용하고 추가 리소스에는 온디맨드 인스턴스를 사용합니다. F. 리전의 여러 가용 영역에서 웹 및 애플리케이션 계층에 대해 Auto Scaling 그룹을 사용합니다. 필요한 리소스에 스팟 인스턴스를 사용합니다. 회사는 Amazon API Gateway, Amazon DynamoDB 및 AWS Lambda를 사용하여 AWS에서 블로그 게시물 애플리케이션을 호스팅합니다. 애플리케이션은 현재 API 키를 사용하여 요청을 승인하지 않습니다. API 모델은 다음과 같습니다. GET /posts/{postId}: 게시물 세부정보 가져오기 GET /users/{userId}: 사용자 세부정보 가져오기 GET /comments/{commentId}: 댓글 세부 정보 가져오기 댓글 섹션에서 주제에 대해 논의하고 회사는 댓글을 실시간으로 표시하여 사용자 참여를 늘리고자 합니다. 댓글 대기 시간을 줄이고 사용자 경험을 개선하려면 어떤 디자인을 사용해야 합니까?. A. Amazon CloudFront와 함께 엣지 최적화 API를 사용하여 API 응답을 캐시합니다. B. 10초마다 GET/comments/{commentId}를 요청하도록 블로그 애플리케이션 코드를 수정합니다. C. AWS AppSync를 사용하고 WebSocket을 활용하여 의견을 전달합니다. D. Lambda 함수의 동시성 제한을 변경하여 API 응답 시간을 낮춥니다. 회사에서 여러 Amazon DynamoDB 테이블에 데이터를 저장하고 있습니다. 솔루션 설계자는 서버리스 아키텍처를 사용하여 HTTPS를 통한 간단한 API를 통해 공개적으로 데이터에 액세스할 수 있도록 해야 합니다. 솔루션은 수요에 따라 자동으로 확장되어야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (두 가지를 선택하세요.). A. Amazon API Gateway REST API를 생성합니다. API Gateway의 AWS 통합 유형을 사용하여 DynamoDB에 대한 직접 통합으로 이 API를 구성합니다. B. Amazon API Gateway HTTP API를 생성합니다. API Gateway의 AWS 통합 유형을 사용하여 Dynamo DB에 대한 직접 통합으로 이 API를 구성합니다. C. Amazon API Gateway HTTP API를 생성합니다. DynamoDB 테이블에서 데이터를 반환하는 AWS Lambda 함수와의 통합으로 이 API를 구성합니다. D. AWS Global Accelerator에서 액셀러레이터를 생성합니다. DynamoDB 테이블에서 데이터를 반환하는 AWS Lambda@Edge 함수 통합으로 이 액셀러레이터를 구성합니다. E. Network Load Balancer를 생성합니다. 요청을 적절한 AWS Lambda 함수로 전달하도록 리스너 규칙을 구성합니다. 한 회사에 AWS Organizations에 AWS 계정이 많은 조직이 있습니다. AWS 계정 중 하나는 전송 계정으로 지정되며 다른 모든 AWS 계정과 공유되는 전송 게이트웨이가 있습니다. AWS Site-to-Site VPN 연결은 회사의 모든 글로벌 사무소와 전송 계정 간에 구성됩니다. 이 회사는 모든 계정에서 AWS Config를 활성화했습니다. 회사의 네트워킹 팀은 글로벌 사무소에 속하는 내부 IP 주소 범위 목록을 중앙에서 관리해야 합니다. 개발자는 이 목록을 참조하여 애플리케이션에 안전하게 액세스할 수 있습니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon S3에서 호스팅되고 모든 내부 IP 주소 범위를 나열하는 JSON 파일을 생성합니다. JSON 파일이 업데이트될 때 호출할 수 있는 각 계정에서 Amazon Simple Notification Service(Amazon SNS) 주제를 구성합니다. SNS 주제에 대한 AWS Lambda 함수를 구독하여 업데이트된 IP 주소 범위로 모든 관련 보안 그룹 규칙을 업데이트합니다. B. 모든 내부 IP 주소 범위를 포함하는 새 AWS Config 관리형 규칙을 생성합니다. 규칙을 사용하여 각 계정의 보안 그룹을 확인하여 IP 주소 범위 목록을 준수하는지 확인하십시오. 탐지된 규정 미준수 보안 그룹을 자동으로 수정하도록 규칙을 구성합니다. C. 전송 계정에서 모든 내부 IP 주소 범위로 VPC 접두사 목록을 생성합니다. AWS Resource Access Manager를 사용하여 접두사 목록을 다른 모든 계정과 공유하십시오. 공유 접두사 목록을 사용하여 다른 계정에서 보안 그룹 규칙을 구성합니다. D. 전송 계정에서 모든 내부 IP 주소 범위로 보안 그룹을 생성합니다. "의 중첩된 보안 그룹 참조를 사용하여 전송 계정의 보안 그룹을 참조하도록 다른 계정의 보안 그룹을 구성합니다. "<transit-account-id>/sg-1a2b3c4d". 회사가 AWS 클라우드에서 애플리케이션을 실행하고 있습니다. 애플리케이션은 Amazon Elastic Container Service (Amazon ECS) 클러스터의 컨테이너에서 실행됩니다. ECS 작업은 Fargate 시작 유형을 사용합니다. 애플리케이션의 데이터는 관계형이며 Amazon Aurora MySQL에 저장됩니다. 규제 요구 사항을 충족하려면 애플리케이션 장애 시 애플리케이션이 별도의 AWS 리전으로 복구할 수 있어야 합니다. 장애가 발생해도 데이터가 손실되지 않습니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 다른 리전에서 Aurora 복제본을 프로비저닝합니다. B. 데이터를 다른 지역으로 지속적으로 복제하도록 AWS DataSync를 설정합니다. C. 다른 리전으로 데이터를 지속적으로 복제하도록 AWS DMS(AWS Database Migration Service)를 설정합니다. D. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 5분마다 스냅샷을 예약합니다. 솔루션 설계자는 새로 인수한 회사의 애플리케이션 및 데이터베이스 포트폴리오를 평가해야 합니다. 솔루션 설계자는 포트폴리오를 AWS로 마이그레이션하기 위한 비즈니스 사례를 생성해야 합니다. 새로 인수한 회사는 온프레미스 데이터 센터에서 애플리케이션을 실행합니다. 데이터 센터는 잘 문서화되어 있지 않습니다. 솔루션 설계자는 존재하는 애플리케이션과 데이터베이스의 수를 즉시 확인할 수 없습니다. 애플리케이션의 트래픽은 가변적입니다. 일부 응용 프로그램은 매달 말에 실행되는 배치 프로세스입니다. 솔루션 설계자는 AWS로의 마이그레이션을 시작하기 전에 포트폴리오를 더 잘 이해해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Server Migration Service(AWS SMS) 및 AWS Database Migration Service(AWS DMS)를 사용하여 마이그레이션을 평가합니다. AWS Service Catalog를 사용하여 애플리케이션 및 데이터베이스 종속성을 이해합니다. B. AWS 애플리케이션 마이그레이션 서비스를 사용합니다. 온프레미스 인프라에서 에이전트를 실행합니다. AWS Migration Hub를 사용하여 에이전트를 관리합니다. AWS Storage Gateway를 사용하여 로컬 스토리지 요구 사항 및 데이터베이스 종속성을 평가합니다. C. Migration Evaluator를 사용하여 서버 목록을 생성합니다. 비즈니스 사례에 대한 보고서를 작성합니다. 포트폴리오를 보려면 AWS Migration Hub를 사용하십시오. AWS Application Discovery Service를 사용하여 애플리케이션 종속성을 이해합니다. D. 대상 계정에서 AWS Control Tower를 사용하여 애플리케이션 포트폴리오를 생성합니다. AWS Server Migration Service(AWS SMS)를 사용하여 더 심층적인 보고서와 비즈니스 사례를 생성합니다. 핵심 계정 및 리소스에 랜딩 존을 사용합니다. 회사는 사용자 등록 양식이 포함된 인증되지 않은 정적 웹사이트(www.example.com)를 운영합니다. 이 웹 사이트는 호스팅에 Amazon S3를 사용하고 AWS WAF가 구성된 콘텐츠 전송 네트워크로 Amazon CloudFront를 사용합니다. 등록 양식이 제출되면 웹 사이트는 AWS Lambda 함수를 호출하는 Amazon API Gateway API 엔드포인트를 호출하여 페이로드를 처리하고 페이로드를 외부 API 호출로 전달합니다. 테스트 중에 솔루션 설계자가 CORS(교차 원본 리소스 공유) 오류를 발견했습니다. 솔루션 설계자는 CloudFront 배포 오리진에 www.example.com으로 설정된 Access-Control-Allow-Origin 헤더가 있는지 확인합니다. 솔루션 설계자는 오류를 해결하기 위해 무엇을 해야 합니까?. A. S3 버킷에서 CORS 구성을 변경합니다. www.example.com의 AllowedOrigin 요소에 CORS에 대한 규칙을 추가합니다. B. AWS WAF에서 CORS 설정을 활성화합니다. Access-Control-Allow-Origin 헤더가 www.example.com으로 설정된 웹 ACL 규칙을 생성합니다. C. API Gateway API 엔드포인트에서 CORS 설정을 활성화합니다. Access-Control-Allow-Origin 헤더가 www.example.com으로 설정된 모든 응답을 반환하도록 API 엔드포인트가 구성되었는지 확인합니다. D. Lambda 함수에서 CORS 설정을 활성화합니다. 함수의 반환 코드에 www.example.com으로 설정된 Access-Control-Allow-Origin 헤더가 있는지 확인하십시오. 회사에는 이벤트 지속성을 위해 PostgreSQL 데이터베이스를 사용하는 온프레미스 모니터링 솔루션이 있습니다. 과도한 수집으로 인해 데이터베이스를 확장할 수 없으며 스토리지가 자주 부족합니다. 이 회사는 하이브리드 솔루션을 만들고자 하며 이미 네트워크와 간에 AWS VPN 연결을 설정했습니다. 솔루션에는 다음 속성이 포함되어야 합니다. * 운영 복잡성을 최소화하기 위한 관리형 AWS 서비스. * 데이터 처리량에 맞게 자동으로 확장되며 지속적인 관리가 필요하지 않은 버퍼입니다. * 거의 실시간으로 이벤트를 관찰하기 위해 대시보드를 만드는 시각화 도구. * 반구조화된 JSON 데이터 및 동적 스키마 지원. 회사에서 이러한 요구 사항을 충족하는 모니터링 솔루션을 만들 수 있는 구성 요소의 조합은 무엇입니까? (두 가지를 선택하세요.). A. Amazon Kinesis Data Firehose를 사용하여 이벤트를 버퍼링하십시오. 이벤트를 처리하고 변환하는 AWS Lambda 함수를 생성합니다. B. 이벤트를 버퍼링하기 위해 Amazon Kinesis Data Stream을 생성합니다. 이벤트를 처리하고 변환하는 AWS Lambda 함수를 생성합니다. C. 이벤트를 수신하도록 Amazon Aurora PostgreSQL DB 클러스터를 구성합니다. Amazon QuickSight를 사용하여 데이터베이스에서 읽고 실시간에 가까운 시각화 및 대시보드를 생성합니다. D. 이벤트를 수신하도록 Amazon Elasticsearch Service(Amazon ES)를 구성합니다. Amazon ES와 함께 배포된 Kibana 엔드포인트를 사용하여 실시간에 가까운 시각화 및 대시보드를 생성합니다. E. 이벤트를 수신하도록 Amazon Neptune DB 인스턴스를 구성합니다. Amazon QuickSight를 사용하여 데이터베이스에서 읽고 실시간에 가까운 시각화 및 대시보드를 생성합니다. 생명 과학 회사는 오픈 소스 도구의 조합을 사용하여 데이터 분석 워크플로를 관리하고 온프레미스 데이터 센터의 서버에서 실행되는 Docker 컨테이너를 사용하여 게놈 데이터를 처리합니다. 시퀀싱 데이터가 생성되어 로컬 SAN(Storage Area Network)에 저장된 다음 데이터가 처리됩니다. 연구 개발 팀은 용량 문제에 직면하고 있으며 AWS에서 게놈 분석 플랫폼을 재설계하여 워크로드 수요에 따라 확장하고 처리 시간을 몇 주에서 며칠로 단축하기로 결정했습니다. 회사에는 고속 AWS Direct Connect 연결이 있습니다. 시퀀서는 각 게놈에 대해 약 200GB의 데이터를 생성하며 개별 작업은 이상적인 컴퓨팅 용량으로 데이터를 처리하는 데 몇 시간이 걸릴 수 있습니다. 최종 결과는 Amazon S3에 저장됩니다. 회사는 매일 10-15개의 작업 요청을 예상하고 있습니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?. A. 정기적으로 예약된 AWS Snowball Edge 디바이스를 사용하여 시퀀싱 데이터를 AWS로 전송합니다. AWS가 Snowball Edge 디바이스를 수신하고 데이터가 Amazon S3에 로드되면 S3 이벤트를 사용하여 AWS Lambda 함수를 트리거하여 데이터를 처리합니다. B. AWS Data Pipeline을 사용하여 시퀀싱 데이터를 Amazon S3로 전송합니다. S3 이벤트를 사용하여 Amazon EC2 Auto Scaling 그룹을 트리거하여 데이터를 처리하기 위해 Docker 컨테이너를 실행하는 사용자 지정 AMI EC2 인스턴스를 시작합니다. C. AWS DataSync를 사용하여 시퀀싱 데이터를 Amazon S3로 전송합니다. S3 이벤트를 사용하여 AWS Step Functions 워크플로를 시작하는 AWS Lambda 함수를 트리거합니다. Docker 이미지를 Amazon Elastic Container Registry(Amazon ECR)에 저장하고 AWS Batch를 트리거하여 컨테이너를 실행하고 시퀀싱 데이터를 처리합니다. D. AWS Storage Gateway 파일 게이트웨이를 사용하여 시퀀싱 데이터를 Amazon S3로 전송합니다. S3 이벤트를 사용하여 Docker 컨테이너를 실행하는 Amazon EC2 인스턴스에서 실행되는 AWS Batch 작업을 트리거하여 데이터를 처리합니다. 회사가 VPC에서 웹 애플리케이션을 실행하고 있습니다. 웹 애플리케이션은 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스 그룹에서 실행됩니다. ALB는 AWS WAF를 사용하고 있습니다. 외부 고객은 웹 애플리케이션에 연결해야 합니다. 회사는 모든 외부 고객에게 IP 주소를 제공해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. ALB를 NLB(Network Load Balancer)로 교체합니다. NLB에 탄력적 IP 주소를 할당합니다. B. 탄력적 IP 주소를 할당합니다. 탄력적 IP 주소를 ALP에 할당 고객에게 탄력적 IP 주소를 제공합니다. C. AWS Global Accelerator 표준 가속기를 생성합니다. 가속기의 끝점으로 ALB를 지정합니다. 액셀러레이터의 IP 주소를 고객에게 제공합니다. D. Amazon CloudFront 배포를 구성합니다. ALB를 원점으로 설정합니다. 배포의 DNS 이름을 ping하여 배포의 퍼블릭 IP 주소를 확인합니다. 고객에게 IP 주소를 제공합니다. 회사는 전화를 받고 자동으로 모든 고객에게 문자 메시지를 통해 관리되는 양방향 경험 설문 조사를 보내는 고객 서비스 센터를 운영합니다. 고객 서비스 센터를 지원하는 애플리케이션은 회사가 온프레미스 데이터 센터에서 호스팅하는 시스템에서 실행됩니다. 회사에서 사용하는 하드웨어가 노후되어 시스템 가동 중지 시간이 발생하고 있습니다. 회사는 안정성을 향상시키기 위해 시스템을 AWS로 마이그레이션하려고 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Amazon Connect를 사용하여 기존 콜 센터 하드웨어를 교체하십시오. Amazon Pinpoint를 사용하여 고객에게 문자 메시지 설문 조사를 보냅니다. B. Amazon Connect를 사용하여 이전 콜 센터 하드웨어를 교체하십시오. Amazon Simple Notification Service(Amazon SNS)를 사용하여 고객에게 문자 메시지 설문 조사를 보냅니다. C. 콜 센터 소프트웨어를 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스로 마이그레이션합니다. EC2 인스턴스를 사용하여 고객에게 문자 메시지 설문 조사를 보냅니다. D. Amazon Pinpoint를 사용하여 기존 콜 센터 하드웨어를 교체하고 고객에게 문자 메시지 설문 조사를 보냅니다. 솔루션 설계자는 AWS 계정의 Amazon S3 버킷에서 새 AWS 계정의 새 S3 버킷으로 데이터를 복사해야 합니다. 솔루션 설계자는 AWS CLI를 사용하는 솔루션을 구현해야 합니다. 어떤 단계 조합이 데이터를 성공적으로 복사합니까? (3개를 선택하세요.). A. 원본 버킷이 콘텐츠를 나열하고 대상 버킷에 개체를 넣고 개체 ACL을 설정하도록 허용하는 버킷 정책을 만듭니다. 대상 버킷에 버킷 정책을 연결합니다. B. 대상 계정의 사용자가 소스 버킷의 콘텐츠를 나열하고 소스 버킷의 객체를 읽을 수 있도록 버킷 정책을 생성합니다. 버킷정책을 원본 버킷에 연결합니다. C. 원본 계정에서 IAM 정책을 만듭니다. 소스 계정의 사용자가 소스 버킷의 콘텐츠를 나열하고 객체를 가져오고 콘텐츠를 나열하고 객체를 넣고 대상 버킷에서 객체 ACL을 설정할 수 있도록 정책을 구성합니다. 정책을 사용자에게 연결합니다. D. 대상 계정에서 IAM 정책을 생성합니다. 대상 계정의 사용자가 소스 버킷의 콘텐츠를 나열하고 객체를 가져오고 콘텐츠를 나열하고 객체를 넣고 대상 버킷에서 objectACL을 설정할 수 있도록 정책을 구성합니다. 정책을 사용자에게 연결합니다. E. 소스 계정의 사용자로 aws s3 sync 명령을 실행합니다. 데이터를 복사할 원본 및 대상 버킷을 지정합니다. F. 대상 계정의 사용자로 aws s3 sync 명령을 실행합니다. 데이터를 복사할 원본 및 대상 버킷을 지정합니다. 한 회사가 AWS에서 실행되도록 애플리케이션을 재설계하고 있습니다. 이 회사의 인프라에는 여러 Amazon EC2 인스턴스가 포함되어 있습니다. 회사의 개발 팀은 다양한 수준의 액세스가 필요합니다. 이 회사는 모든 Windows EC2 인스턴스를 AWS의 Active Directory 도메인에 조인하도록 요구하는 정책을 구현하려고 합니다. 회사는 또한 다중 요소 인증(MFA)과 같은 향상된 보안 프로세스를 구현하기를 원합니다. 회사는 가능하면 관리형 AWS 서비스를 사용하려고 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. Microsoft Active Directory 구현을 위한 AWS Directory Service를 생성합니다. Amazon Workspace를 시작합니다. 도메인 보안 구성 작업을 위해 Workspace에 연결하고 작업 공간을 사용합니다. B. Microsoft Active Directory 구현을 위한 AWS Directory Service를 생성합니다. EC2 인스턴스를 시작합니다. 도메인 보안 구성 작업을 위해 EC2 인스턴스에 연결하고 사용합니다. C. AWS Directory Service Simple AD 구현을 생성합니다. EC2 인스턴스를 시작합니다. 도메인 보안 구성 작업을 위해 EC2 인스턴스에 연결하고 사용합니다. D. AWS Directory Service Simple AD 구현을 생성합니다. Amazon Workspace를 시작합니다. 도메인 보안 구성 작업을 위해 Workspace에 연결하고 작업 공간을 사용합니다. 회사는 에서 많은 워크로드를 실행하고 AWS AWS Organizations를 사용하여 계정을 관리합니다. 워크로드는 Amazon EC2에서 호스팅됩니다. AWS Fargate 및 AWS Lambda. 일부 워크로드에는 예측할 수 없는 수요가 있습니다. 계정은 어떤 달에는 사용량이 많고 다른 달에는 사용량이 적습니다. 이 회사는 향후 3년 동안 컴퓨팅 비용을 최적화하려고 합니다. 솔루션 설계자는 사용량을 계산하기 위해 조직 전체의 각 계정에 대한 6개월 평균을 얻습니다. 어떤 솔루션이 조직의 모든 컴퓨팅 사용에 대해 가장 많은 비용 절감을 제공합니까?. A. 조직이 회원 계정에서 가장 일반적인 EC2 인스턴스의 크기 및 수와 일치하도록 예약 인스턴스를 구매합니다. B. 마스터 계정 수준의 권장 사항을 사용하여 마스터 계정에서 조직의 Compute Savings Plan을 구매합니다. C. 지난 6개월 동안의 데이터에 따라 EC2 사용량이 많은 멤버 계정별로 예약 인스턴스를 구입합니다. D. 지난 6개월 동안의 EC2 사용 데이터를 기반으로 마스터 계정에서 각 멤버 계정에 대한 EC2 Instance Savings Plan을 구매합니다. 출판 회사의 디자인 팀은 전자 상거래 웹 애플리케이션에서 사용하는 아이콘 및 기타 정적 자산을 업데이트합니다. 회사는 회사의 프로덕션 계정에서 호스팅되는 Amazon S3 버킷의 아이콘과 자산을 제공합니다. 회사는 또한 디자인 팀 구성원이 액세스할 수 있는 개발 계정을 사용합니다. 디자인 팀이 개발 계정에서 정적 자산을 테스트한 후 디자인 팀은 프로덕션 계정의 S3 버킷에 자산을 로드해야 합니다. 솔루션 설계자는 원치 않는 변경의 위험에 웹 애플리케이션의 다른 부분을 노출시키지 않고 프로덕션 계정에 대한 액세스 권한을 디자인 팀에 제공해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 프로덕션 계정에서 S3 버킷에 대한 읽기 및 쓰기 액세스를 허용하는 새 IAM 정책을 생성합니다. B. 개발 계정에서 S3 버킷에 대한 읽기 및 쓰기 액세스를 허용하는 새 IAM 정책을 생성합니다. C. 프로덕션 계정에서 역할을 생성하고 새 정책을 역할에 연결합니다. 개발 계정을 신뢰할 수 있는 엔터티로 정의합니다. D. 개발 계정에서 역할을 생성합니다. 프로덕션 계정을 신뢰할 수 있는 엔터티로 정의하는 역할에 새 정책을 연결합니다. E. 개발 계정에서 디자인 팀의 모든 IAM 사용자를 포함하는 그룹을 만듭니다. 다른 IAM 정책을 그룹에 연결하여 프로덕션 계정의 역할에 대한 sts:AssumeRole 작업을 허용합니다. F. 개발 계정에서 디자인 팀의 모든 IAM 사용자를 포함하는 그룹을 생성합니다. 그룹에 다른 IAM 정책을 연결하여 개발 계정의역할에 대한 sts:AssumeRole 작업을 허용합니다. 이미지 스토리지 서비스를 제공하는 회사에서 고객 대면 솔루션을 AWS에 배포하려고 합니다. 수백만 명의 개인 고객이 이 솔루션을 사용할 것입니다. 이 솔루션은 대용량 이미지 파일 배치를 수신하고, 파일 크기를 조정하고, 파일을 최대 6개월 동안 Amazon S3 버킷에 저장합니다. 솔루션은 수요의 상당한 변화를 처리해야 합니다. 또한 솔루션은 엔터프라이즈 규모에서 안정적이어야 하며 장애 발생 시 처리 작업을 재실행할 수 있어야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. AWS Step Functions를 사용하여 사용자가 이미지를 저장할 때 발생하는 S3 이벤트를 처리합니다. 이미지 크기를 조정하고 S3 버킷의 원본 파일을 대체하는 AWS Lambda 함수를 실행합니다. 저장된 모든 이미지가 6개월 후에 만료되도록 S3 수명 주기 만료 정책을 생성합니다. B. Amazon EventBridge를 사용하여 사용자가 이미지를 업로드할 때 발생하는 S3 이벤트를 처리합니다. 이미지 크기를 조정하고 S3 버킷의 원본 파일을 대체하는 AWS Lambda 함수를 실행합니다. 저장된 모든 이미지가 6개월 후에 만료되도록 S3 수명 주기 만료 정책을 생성합니다. C. S3 이벤트 알림을 사용하여 사용자가 이미지를 저장할 때 AWS Lambda 함수를 호출합니다. Lambda 함수를 사용하여 이미지 크기를 조정하고 원본 파일을 S3 버킷에 저장합니다. 6개월 후에 저장된 모든 이미지를 S3 Standard-Infrequent Access(S3 Standard-IA)로 이동하는 S3 수명 주기 정책을 생성합니다. D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 사용자가 이미지를 저장할 때 발생하는 S3 이벤트를 처리합니다. 이미지 크기를 조정하고 크기 조정된 파일을 S3 Standard-Infrequent Access(S3 Standard-IA)를 사용하는 S3 버킷에 저장하는 AWS Lambda 함수를 실행합니다. 6개월 후 저장된 모든 이미지를 S3 Glacier Deep Archive로 이동하는 S3 수명 주기 정책을 생성합니다. 제조 회사에서 공장용 검사 솔루션을 구축하고 있습니다. 이 회사는 각 조립 라인 끝에 IP 카메라가 있습니다. 이 회사는 Amazon SageMaker를 사용하여 기계 학습(ML) 모델을 교육하여 스틸 이미지에서 일반적인 결함을 식별했습니다. 회사는 결함이 감지되면 공장 작업자에게 현지 피드백을 제공하려고 합니다. 회사는 공장의 인터넷 연결이 끊어진 경우에도 이 피드백을 제공할 수 있어야 합니다. 회사에는 작업자에게 로컬 피드백을 제공하는 API를 호스팅하는 로컬 Linux 서버가 있습니다. 회사는 이러한 요구 사항을 충족하기 위해 ML 모델을 어떻게 배포해야 합니까?. A. 각 IP 카메라에서 AWS로 Amazon Kinesis 비디오 스트림을 설정합니다. Amazon EC2 인스턴스를 사용하여 스트림의 스틸 이미지를 찍습니다. 이미지를 Amazon S3 버킷에 업로드합니다. ML 모델을 사용하여 SageMaker 엔드포인트를 배포합니다. 새 이미지가 업로드될 때 추론 엔드포인트를 호출하도록 AWS Lambda 함수를 호출합니다. 결함이 감지되면 로컬 API를 호출하도록 Lambda 함수를 구성합니다. B. 로컬 서버에 AWS IoT Greengrass를 배포합니다. ML 모델을 Greengrass 서버에 배포합니다. Greengrass 구성 요소를 생성하여 카메라에서 스틸 이미지를 가져오고 추론을 실행합니다. 결함이 감지되면 로컬 API를 호출하도록 구성 요소를 구성합니다. C. AWS Snowball 디바이스를 주문합니다. SageMaker 엔드포인트, ML 모델 및 Amazon EC2 인스턴스를 Snowball 디바이스에 배포합니다. 카메라에서 스틸 이미지를 가져옵니다. EC2 인스턴스에서 추론을 실행합니다. 결함이 감지되면 로컬 API를 호출하도록 인스턴스를 구성합니다. D. 각 IP 카메라에 Amazon Monitron 장치를 배포합니다. 온프레미스에 Amazon Monitron Gateway를 배포합니다. ML 모델을 Amazon Monitron 디바이스에 배포합니다. 결함이 감지되면 Amazon Monitron 상태 경보를 사용하여 AWS Lambda 함수에서 로컬 API를 호출합니다. 한 회사가 Application Load Balancer 뒤에 있는 Auto Scaling 그룹의 여러 Amazon EC2 인스턴스에서 애플리케이션을 실행하고 있습니다. 애플리케이션의 부하는 하루 종일 달라지며 EC2 인스턴스는 정기적으로 확장 및 축소됩니다. EC2 인스턴스의 로그 파일은 15분마다 중앙 Amazon S3 버킷에 복사됩니다. 보안 팀은 종료된 일부 EC2 인스턴스에서 로그 파일이 누락되었음을 발견했습니다. 로그 파일이 종료된 EC2 인스턴스에서 중앙 S3 버킷으로 복사되도록 하는 일련의 작업은 무엇입니까?. A. Amazon S3에 로그 파일을 복사하는 스크립트를 생성하고 스크립트를 EC2 인스턴스의 파일에 저장합니다. Auto Scaling그룹에서 수명 주기 이벤트를 감지하는 Auto Scaling 수명 주기 후크 및 Amazon EventBridge 규칙을 생성합니다. autoscaling:EC2_INSTANCE_TERMINATING 전환 시 AWS Lambda 함수를 호출하여 Auto Scaling 그룹에 ABANDON을 전송하여 종료를 방지하고 스크립트를 실행하여 로그 파일을 복사하고 AWS SDK를 사용하여 인스턴스를 종료합니다. B. 로그 파일을 Amazon S3에 복사하는 스크립트로 AWS Systems Manager 문서를 생성합니다. Auto Scaling 그룹에서 수명 주기 이벤트를 감지하는 Auto Scaling 수명 주기 후크 및 Amazon EventBridge 규칙을 생성합니다. autoscaling:EC2_INSTANCE_TERMINATING 전환에서 AWS Lambda 함수를 호출하여 AWS Systems Manager API SendCommand 작업을 호출하여 문서를 실행하여 로그 파일을 복사하고 CONTINUE를 Auto Scaling 그룹에 전송하여 인스턴스를 종료합니다. C. 로그 전송 속도를 5분마다로 변경합니다. Amazon S3에 로그 파일을 복사하는 스크립트를 생성하고 EC2 인스턴스 사용자 데이터에 스크립트를 추가합니다. EC2 인스턴스 종료를 감지하는 Amazon EventBridge 규칙을 생성합니다. AWS CLI를 사용하여 사용자 데이터 스크립트를 실행하여 로그 파일을 복사하고 인스턴스를 종료하는 EventBridge 규칙에서 AWS Lambda 함수를 호출합니다. D. 로그 파일을 Amazon S3에 복사하는 스크립트로 AWS Systems Manager 문서를 생성합니다. Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시하는 Auto Scaling 수명 주기 후크를 생성합니다. SNS 알림에서 AWS Systems Manager API SendCommand 작업을 호출하여 문서를 실행하여 로그 파일을 복사하고 ABANDON을 Auto Scaling 그룹에 전송하여 인스턴스를 종료합니다. 회사는 새로 취득한 AWS 계정의 보안 태세를 감사해야 합니다. 회사의 데이터 보안 팀은 Amazon S3 버킷이 공개적으로 노출될 때만 알림을 요구합니다. 회사는 데이터 보안 팀의 이메일 주소가 구독된 Amazon Simple Notification Service(Amazon SNS) 주제를 이미 설정했습니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. isPublic 이벤트에 대한 모든 S3 버킷에서 S3 이벤트 알림을 생성합니다. 이벤트 알림 대상으로 SNS 주제를 선택합니다. B. AWS Identity and Access Management Access Analyzer에서 분석기를 생성합니다. "isPublic: true"에 대한 필터를 사용하여 이벤트 유형 "액세스 분석기 결과"에 대한 Amazon EventBridge 규칙을 생성합니다. EventBridge 규칙 대상으로 SNS 주제를 선택합니다. C. "PutBucketPolicy"에 대한 필터를 사용하여 이벤트 유형 "CloudTrail을 통한 버킷 수준 API 호출"에 대한 Amazon EventBridge 규칙을 생성합니다. EventBridge 규칙 대상으로 SNS 주제를 선택합니다. D. AWS Config를 활성화하고 cloudtrail-s3-dataevents-enabled 규칙을 추가합니다. "NON_COMPLIANT"에 대한 필터를 사용하여 이벤트 유형 "Config Rules Re-evaluation Status"에 대한 Amazon EventBridge 규칙을 생성합니다.EventBridge 규칙 대상으로 SNS 주제를 선택합니다. 회사는 Amazon S3에 여러 AWS 계정에 걸쳐 수백 개의 애플리케이션에서 액세스해야 하는 데이터 레이크를 보유하고 있습니다. 회사의 정보 보안 정책에 따르면 공용 인터넷을 통해 S3 버킷에 액세스할 수 없으며 각 애플리케이션이 작동하는 데 필요한 최소한의 권한이 있어야 합니다. 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 각 애플리케이션의 특정 VPC로 제한된 S3 액세스 포인트를 사용할 계획입니다. 솔루션 설계자는 이 솔루션을 구현하기 위해 어떤 단계 조합을 수행해야 합니까? (두 가지를 선택하세요.). A. S3 버킷을 소유한 AWS 계정의 각 애플리케이션에 대한 S3 액세스 포인트를 생성합니다. 애플리케이션의 VPC에서만 액세스할 수 있도록 각 액세스 포인트를 구성합니다. 액세스 포인트에서 액세스를 요구하도록 버킷 정책을 업데이트합니다. B. 각 애플리케이션의 VPC에서 Amazon S3에 대한 인터페이스 엔드포인트를 생성합니다. S3 액세스 포인트에 대한 액세스를 허용하도록 엔드포인트 정책을 구성합니다. S3 엔드포인트에 대한 VPC 게이트웨이 연결을 생성합니다. C. 각 애플리케이션의 VPC에서 Amazon S3에 대한 게이트웨이 엔드포인트를 생성하고 S3 액세스 포인트에 대한 액세스를 허용하도록 엔드포인트 정책을 구성합니다. 액세스 포인트에 액세스하는 데 사용되는 라우팅 테이블을 지정합니다. D. 각 AWS 계정의 각 애플리케이션에 대한 S3 액세스 포인트를 생성하고 액세스 포인트를 S3 버킷에 연결합니다. 애플리케이션의 VPC에서만 액세스할 수 있도록 각 액세스 포인트를 구성합니다. 액세스 포인트에서 액세스를 요구하도록 버킷 정책을 업데이트합니다. E. 데이터 레이크의 VPC에서 Amazon S3에 대한 게이트웨이 엔드포인트를 생성합니다. S3 버킷에 대한 액세스를 허용하는엔드포인트 정책을 연결합니다. 버킷에 액세스하는 데 사용되는 라우팅 테이블을 지정합니다. 회사에서 각 사업부에 대한 내부 클라우드 청구 전략을 변경하려고 합니다. 현재 클라우드 거버넌스팀은 전체 클라우드 지출에 대한 보고서를 각 사업부장과 공유하고 있다. 이 회사는 AWS Organizations를 사용하여 각 사업부에 대한 별도의 AWS 계정을 관리합니다. 조직의 기존 태깅 표준에는 애플리케이션, 환경 및 소유자가 포함됩니다. 클라우드 거버넌스 팀은 각 사업부가 클라우드 지출에 대한 월별 보고서를 받을 수 있도록 중앙 집중식 솔루션을 원합니다. 또한 솔루션은 설정된 임계값을 초과하는 모든 클라우드 지출에 대한 알림을 보내야 합니다. 이러한 요구 사항을 충족하는 가장 비용 효율적인 방법은 무엇입니까?. A. 각 계정에서 AWS 예산을 구성하고 애플리케이션, 환경 및 소유자별로 그룹화된 예산 알림을 구성합니다. 각 알림에 대한 Amazon SNS 주제에 각 사업부를 추가합니다. 각 계정에서 비용 탐색기를 사용하여 각 비즈니스 단위에 대한 월별 보고서를 생성합니다. B. 조직의 마스터 계정에서 AWS 예산을 구성하고 애플리케이션, 환경 및 소유자별로 그룹화된 예산 알림을 구성합니다. 각 알림에 대한 Amazon SNS 주제에 각 사업부를 추가합니다. 조직의 마스터 계정에서 비용 탐색기를 사용하여 각 사업부에 대한 월별 보고서를 생성합니다. C. 각 계정에서 AWS 예산을 구성하고 애플리케이션, 환경 및 소유자별로 그룹화된 예산 알림을 구성합니다. 각 알림에 대한Amazon SNS 주제에 각 사업부를 추가합니다. 각 계정에서 AWS Billing and Cost Management 대시보드를 사용하여 각 비즈니스 단위에 대한 월별 보고서를 생성합니다. D. 조직의 마스터 계정에서 AWS 비용 및 사용 보고서를 활성화하고 애플리케이션, 환경별로 그룹화된 보고서를 구성합니다. 그리고 주인. AWS 비용 및 사용 보고서를 처리하고, 예산 알림을 보내고, 각 사업부의 이메일 목록에 월별 보고서를 보내는 AWS Lambda 함수를 생성합니다. 회사에서 일부 애플리케이션을 로 마이그레이션하고 있습니다 이 회사는 AWS . 네트워킹 및 보안 전략을 확정한 후 신속하게 애플리케이션을 마이그레이션하고 현대화하려고 합니다. 회사는 중앙 네트워크 계정에서 AWS Direct Connect 연결을 설정했습니다. 이 회사는 가까운 장래에 수백 개의 AWS 계정과 VPC를 갖게 될 것으로 예상합니다. 회사 네트워크는 AWS의 리소스에 원활하게 액세스할 수 있어야 하며 모든 VPC와 통신할 수 있어야 합니다. 회사는 또한 온프레미스 데이터 센터를 통해 클라우드 리소스를 인터넷으로 라우팅하려고 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 중앙 계정에서 Direct Connect 게이트웨이를 생성합니다. 각 계정에서 Direct Connect 게이트웨이와 모든 가상 프라이빗 게이트웨이의 계정 ID를 사용하여 연결 제안을 생성합니다. B. 중앙 네트워크 계정에서 Direct Connect 게이트웨이와 전송 게이트웨이를 생성합니다. 전송 VIF를 사용하여 전송 게이트웨이를 Direct Connect 게이트웨이에 연결합니다. C. 인터넷 게이트웨이를 제공합니다. 인터넷 게이트웨이를 서브넷에 연결합니다. 게이트웨이를 통한 인터넷 트래픽을 허용합니다. D. 전송 게이트웨이를 다른 계정과 공유합니다. Transit Gateway에 VPC를 연결합니다. E. 필요에 따라 VPC 피어링을 프로비저닝합니다. F. 프라이빗 서브넷만 프로비저닝합니다. 전송 게이트웨이 및 고객 게이트웨이에서 필요한 경로를 열어 AWS의 아웃바운드 인터넷 트래픽이 데이터 센터에서 실행되는 NAT 서비스를 통해 흐를 수 있도록 합니다. 회사에는 NAT 게이트웨이에 대해 활성화된 VPC 흐름 로그가 있습니다. 회사는 프라이빗 Amazon EC2 인스턴스로 향하는 퍼블릭 IP 주소 198.51.100.2에서 오는 인바운드 트래픽에 대해 Action = ACCEPT를 보고 있습니다. 솔루션 설계자는 트래픽이 인터넷으로부터의 원치 않는 인바운드 연결을 나타내는지 여부를 결정해야 합니다. VPC CIDR 블록의 처음 두 옥텟은 203.0입니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계를 수행해야 합니까?. A. AWS CloudTrail 콘솔을 엽니다. NAT 게이트웨이의 탄력적 네트워크 인터페이스와 프라이빗 인스턴스의 탄력적 네트워크 인터레이스가 포함된 로그 그룹을 선택합니다. 쿼리를 실행하여 "like 203.0"으로 설정된 대상 주소와 "like 198.51.100.2"로 설정된 소스 주소로 필터링합니다. stats 명령을 실행하여 소스 주소와 대상 주소가 전송한 바이트의 합계를 필터링합니다. B. Amazon CloudWatch 콘솔을 엽니다. NAT 게이트웨이의 탄력적 네트워크 인터페이스와 프라이빗 인스턴스의 탄력적 네트워크 인터페이스가 포함된 로그 그룹을 선택합니다. 쿼리를 실행하여 "like 203.0"으로 설정된 대상 주소와 "like 198.51.100.2"로 설정된 소스 주소로 필터링합니다. stats 명령을 실행하여 소스 주소와 대상 주소가 전송한 바이트의 합계를 필터링합니다. C. AWS CloudTrail 콘솔을 엽니다. NAT 게이트웨이의 탄력적 네트워크 인터페이스와 프라이빗 인스턴스의 탄력적 네트워크인터페이스가 포함된 로그 그룹을 선택합니다. "like 198.51.100.2"로 설정된 대상 주소와 "like 203.0"으로 설정된 소스 주소로 필터링하려면 쿼리를 실행하십시오. stats 명령을 실행하여 소스 주소와 대상 주소가 전송한 바이트의 합계를 필터링합니다. D. Amazon CloudWatch 콘솔을 엽니다. NAT 게이트웨이의 탄력적 네트워크 인터페이스와 프라이빗 인스턴스의 탄력적 네트워크 인터페이스가 포함된 로그 그룹을 선택합니다. "like 198.51.100.2"로 설정된 대상 주소와 "like 203.0"으로 설정된 소스 주소로 필터링하려면 쿼리를 실행하십시오. stats 명령을 실행하여 소스 주소와 대상 주소가 전송한 바이트의 합계를 필터링합니다. 회사에서 AWS WAF 솔루션을 배포하여 여러 AWS 계정에서 AWS WAF 규칙을 관리하려고 합니다. 계정은 AWS Organizations의 서로 다른 OU에서 관리됩니다. 관리자는 필요에 따라 관리형 AWS WAF 규칙 세트에서 계정 또는 OU를 추가하거나 제거할 수 있어야 합니다. 또한 관리자는 모든 계정에서 비준수 AWS WAF 규칙을 자동으로 업데이트하고 수정하는 기능이 있어야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Firewall Manager를 사용하여 조직의 여러 계정에서 AWS WAF 규칙을 관리합니다. AWS Systems Manager Parameter Store 파라미터를 사용하여 관리할 계정 번호 및 OU를 저장합니다. 필요에 따라 매개변수를 업데이트하여 계정 또는 OU를 추가하거나 제거하십시오. Amazon EventBridge 규칙을 사용하여 매개변수에 대한 변경 사항을 식별하고 AWS Lambda 함수를 호출하여 Firewall Manager 관리 계정에서 보안 정책을 업데이트합니다. B. AWS WAF 규칙을 연결하기 위해 선택한 OU의 모든 리소스가 필요한 조직 전체 AWS Config 규칙을 배포합니다. 규정을 준수하지 않는 리소스를 수정하기 위해 AWS Lambda를 사용하여 자동화된 수정 작업을 배포합니다. AWS Config 규칙이 적용되는 동일한 OU를 대상으로 하는 AWS CloudFormation 스택 세트를 사용하여 AWS WAF 규칙을 배포합니다. C. 조직의 마스터 계정에서 AWS WAF 규칙을 생성합니다. AWS Lambda 환경 변수를 사용하여 관리할 계정 번호 및 OU를 저장합니다. 필요에 따라 환경 변수를 업데이트하여 계정 또는 OU를 추가하거나 제거합니다. 멤버 계정에서 교차 계정 IAM 역할을 생성합니다. Lambda 함수에서 AWS Security Token Service(AWS STS)를 사용하여 역할을 수임하여 구성원 계정에서 AWS WAF 규칙을 생성하고 업데이트합니다. D. AWS Control Tower를 사용하여 조직의 여러 계정에서 AWS WAF 규칙을 관리합니다. AWS Key Management Service(AWS KMS)를 사용하여 관리할 계정 번호 및 OU를 저장합니다. 필요에 따라 AWS KMS를 업데이트하여 계정 또는 OU를 추가하거나 제거합니다. 멤버 계정에서 IAM 사용자를 생성합니다. 마스터 계정의 AWS Control Tower가 액세스 키와 보안 액세스 키를 사용하여 회원 계정에서 AWS WAF 규칙을 생성하고 업데이트하도록 허용합니다. 회사는 온프레미스에서 인트라넷 애플리케이션을 실행합니다. 회사는 애플리케이션의 클라우드 백업을 구성하려고 합니다. 회사는 이 솔루션을 위해 AWS Elastic Disaster Recovery를 선택했습니다. 회사는 복제 트래픽이 공용 인터넷을 통해 이동하지 않도록 요구합니다. 응용 프로그램은 또한 인터넷에서 액세스할 수 없어야 합니다. 회사는 다른 애플리케이션에 대역폭이 필요하기 때문에 이 솔루션이 사용 가능한 모든 네트워크 대역폭을 소비하는 것을 원하지 않습니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.). A. 최소 2개의 프라이빗 서브넷, 2개의 NAT 게이트웨이 및 가상 프라이빗 게이트웨이가 있는 VPC를 생성합니다. B. 최소 2개의 퍼블릭 서브넷, 가상 프라이빗 게이트웨이 및 인터넷 게이트웨이가 있는 VPC를 생성합니다. C. 온프레미스 네트워크와 대상 AWS 네트워크 간에 AWS Site-to-Site VPN 연결을 생성합니다. D. 온프레미스 네트워크와 대상 AWS 네트워크 간에 AWS Direct Connect 연결 및 Direct Connect 게이트웨이를 생성합니다. E. 복제 서버를 구성하는 동안 데이터 복제에 사설 IP 주소를 사용하는 옵션을 선택합니다. F. 대상 서버에 대한 시작 설정을 구성하는 동안 복구 인스턴스의 개인 IP 주소가 원본 서버의 개인 IP 주소와 일치하는지 확인하는 옵션을 선택합니다. 회사는 Production이라는 단일 OU가 있는 AWS Organizations를 사용하여 여러 계정을 관리합니다. 모든 계정은 프로덕션 OU의 구성원입니다. 관리자는 조직의 루트에 있는 거부 목록 SCP를 사용하여 제한된 서비스에 대한 액세스를 관리합니다. 이 회사는 최근에 새로운 사업부를 인수하고 새 사업부의 기존 AWS 계정을 조직에 초대했습니다. 온보딩 후 새 사업부의 관리자는 회사 정책을 충족하기 위해 기존 AWS Config 규칙을 업데이트할 수 없음을 발견했습니다. 관리자가 추가 장기 유지 관리 없이 현재 정책을 변경하고 계속 시행할 수 있는 옵션은 무엇입니까?. A. AWS Config에 대한 액세스를 제한하는 조직의 루트 SCP를 제거합니다. 회사의 표준 AWS Config 규칙에 대한 AWS Service Catalog 제품을 생성하고 새 계정을 포함하여 조직 전체에 배포합니다. B. 새 계정에 대해 Onboarding이라는 임시 OU를 만듭니다. 온보딩 OU에 SCP를 적용하여 AWS Config 작업을 허용합니다. AWS Config 조정이 완료되면 새 계정을 프로덕션 OU로 이동합니다. C. 조직의 루트 SCP를 거부 목록 SCP에서 허용 목록 SCP가 필요한 서비스만 허용하도록 변환합니다. 새 계정의 보안 주체에 대해서만 AWS Config 작업을 허용하는 SCP를 조직의 루트에 일시적으로 적용합니다. D. 새 계정에 대해 Onboarding이라는 임시 OU를 만듭니다. 온보딩 OU에 SCP를 적용하여 AWS Config 작업을 허용합니다. 조직의 루트 SCP를 프로덕션 OU로 이동합니다. AWS Config 조정이 완료되면 새 계정을 프로덕션 OU로 이동합니다. 회사가 AWS 클라우드에서 애플리케이션을 실행하고 있습니다. 애플리케이션은 Application Load Balancer 뒤의 여러 가용영역에 있는 Amazon EC2 인스턴스 플릿에서 실행되는 마이크로서비스로 구성됩니다. 이 회사는 최근 Amazon API Gateway에서 구현된 새로운 REST API를 추가했습니다. EC2 인스턴스에서 실행되는 일부 이전 마이크로서비스는 이 새로운 API를 호출해야 합니다. 회사는 공용 인터넷에서 API에 액세스하는 것을 원하지 않으며 독점 데이터가 공용 인터넷을 통과하는 것을 원하지 않습니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?. A. VPC와 API 게이트웨이 간에 AWS Site-to-Site VPN 연결을 생성합니다. API 게이트웨이를 사용하여 각 마이크로 서비스에 대한 고유한 API 키를 생성하십시오. 키를 요구하도록 API 메서드를 구성합니다. B. API 게이트웨이에 대한 인터페이스 VPC 엔드포인트를 생성하고 특정 API에 대한 액세스만 허용하도록 엔드포인트 정책을 설정합니다. VPC 엔드포인트에서의 액세스만 허용하도록 API Gateway에 리소스 정책을 추가합니다. API Gateway 끝점 유형을 비공개로 변경합니다. C. IAM 인증을 사용하도록 API 게이트웨이를 수정합니다. API 게이트웨이에 대한 액세스를 허용하도록 EC2 인스턴스에 할당된 IAM 역할에 대한 IAM 정책을 업데이트합니다. API 게이트웨이를 새 VP로 이동하고 전송 게이트웨이를 배포하고 VPC를 연결합니다. D. AWS Global Accelerator에서 액셀러레이터를 생성하고 액셀러레이터를 API Gateway에 연결합니다. 생성된 Global Accelerator 엔드포인트 IP 주소에 대한 경로로 모든 VPC 서브넷의 경로 테이블을 업데이트합니다. 인증에 사용할 각 서비스의 API 키를 추가합니다. 회사의 솔루션 아키텍트가 샌드박스 AWS 계정에서 내부적으로 개발된 새로운 애플리케이션을 검토하고 있습니다. 애플리케이션은 IAM 인스턴스 프로파일이 연결된 Amazon EC2 인스턴스의 AWS Auto Scaling 그룹을 사용합니다. 애플리케이션 로직의 일부는 AWS Secrets Manager에서 비밀을 생성하고 액세스합니다. 회사에는 애플리케이션 API를 호출하여 기능을 테스트하는 AWS Lambda 함수가 있습니다. 회사는 계정에 AWS CloudTrail 추적도 생성했습니다. 애플리케이션의 개발자가 SecretsManagerReadWrite AWS 관리형 IAM 정책을 IAM 역할에 연결했습니다. IAM 역할은 EC2 인스턴스에 연결된 인스턴스 프로필과 연결됩니다. 솔루션 설계자가 테스트를 위해 Lambda 함수를 호출했습니다. 솔루션 설계자는 SecretsManagerReadWrite 정책을 애플리케이션에 필요한 Secrets Manager 작업에 대한 최소 권한 액세스를 제공하는 새 정책으로 교체해야 합니다. 이러한 요구 사항을 충족하는 운영상 가장 효율적인 솔루션은 무엇입니까?. A. IAM 역할에 대한 CloudTrail 이벤트를 기반으로 정책을 생성합니다. 생성된 정책 출력을 사용하여 새 IAM 정책을 생성합니다. 새로 생성된 IAM 정책을 사용하여 IAM 역할에 연결된 SecretsManagerReadWrite 정책을 교체합니다. B. AWS Identity and Access Management Access Analyzer에서 분석기를 생성합니다. IAM 역할의 Access Advisor 결과를 사용하여 새 IAM 정책을 생성합니다. 새로 생성된 IAM 정책을 사용하여 IAM 역할에 연결된 SecretsManagerReadWrite 정책을 대체합니다. C. aws cloudtrail lookup-events AWS CLI 명령을 사용하여 Secrets Manager와 관련된 CloudTrail 이벤트를 필터링하고 내보냅니다. CloudTrail의 작업이 포함된 새 IAM 정책을 사용하여 IAM 역할에 연결된 SecretsManagerReadWrite 정책을 교체합니다. D. IAM 정책 시뮬레이터를 사용하여 IAM 역할에 대한 IAM 정책을 생성합니다. 새로 생성된 IAM 정책을 사용하여 IAM 역할에연결된 SecretsManagerReadWrite 정책을 교체합니다. 회사는 AWS Organizations를 사용하여 AWS 계정을 관리합니다. 회사에는 CPU 또는 메모리 사용량이 충분히 활용되지 않은 모든 Amazon EC2 인스턴스 목록이 필요합니다. 또한 회사는 활용률이 낮은 인스턴스의 크기를 줄이는 방법에 대한 권장 사항이 필요합니다. 최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 모든 EC2 인스턴스에 AWS Marketplace의 CPU 및 메모리 모니터링 도구를 설치합니다. 결과를 Amazon S3에 저장합니다. 활용도가 낮은 인스턴스를 식별하기 위해 Python 스크립트를 구현합니다. 축소 옵션에 대한 권장 사항은 EC2 인스턴스 요금 정보를 참조하십시오. B. AWS Systems Manager를 사용하여 모든 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치합니다. 조직의 마스터 계정에 있는 AWS Cost Explorer에서 리소스 최적화 권장 사항을 검색합니다. 권장 사항을 사용하여 조직의 모든 계정에서 사용률이 낮은 인스턴스의 크기를 줄입니다. C. AWS Systems Manager를 사용하여 모든 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치합니다. 조직의 각 계정에 있는 AWS Cost Explorer에서 리소스 최적화 권장 사항을 검색합니다. 권장 사항을 사용하여 조직의 모든 계정에서 사용률이 낮은 인스턴스의 크기를 줄입니다. D. AWS Systems Manager를 사용하여 모든 EC2 인스턴스에 Amazon CloudWatch 에이전트를 설치합니다. 모든 EC2 인스턴스에서 CPU 및 메모리 사용량을 추출하는 AWS Lambda 함수를 생성합니다. 결과를 Amazon S3에 파일로 저장합니다. Amazon Athena를 사용하여 활용도가 낮은 인스턴스를 찾으십시오. 축소 옵션에 대한 권장 사항은 EC2 인스턴스 요금 정보를 참조하십시오. 회사에는 대도시 전체의 교통 패턴을 모니터링하는 IoT 센서가 있습니다. 회사는 센서에서 데이터를 읽고 수집하고 데이터 집계를 수행하려고 합니다. 솔루션 설계자는 IoT 디바이스가 Amazon Kinesis Data Streams로 스트리밍되는 솔루션을 설계합니다. 여러 애플리케이션이 스트림에서 읽고 있습니다. 그러나 여러 소비자가 조절을 경험하고 주기적으로 ReadProvisionedThroughputExceeded 오류가 발생합니다. 솔루션 설계자는 이 문제를 해결하기 위해 어떤 조치를 취해야 합니까? (3개를 선택하세요.). A. 스트림을 리샤딩하여 스트림의 샤드 수를 늘립니다. B. Kinesis Producer Library(KPL)를 사용합니다. 폴링 빈도를 조정합니다. C. 팬아웃 기능이 향상된 소비자를 사용하십시오. D. 스트림을 리샤딩하여 스트림의 샤드 수를 줄입니다. E. 소비자 논리에서 오류 재시도 및 지수 백오프 메커니즘을 사용합니다. F. 동적 파티셔닝을 사용하도록 스트림을 구성합니다. 회사는 AWS 클라우드의 Amazon EC2 인스턴스에서 애플리케이션을 실행하고 있습니다. 애플리케이션은 데이터 계층으로 설정된 복제본과 함께 MongoDB 데이터베이스를 사용하고 있습니다. MongoDB 데이터베이스는 회사 온프레미스 데이터 센터의 시스템에 설치되며 데이터 센터 환경에 대한 AWS Direct Connect 연결을 통해 액세스할 수 있습니다. 솔루션 설계자는 온프레미스 MongoDB 데이터베이스를 Amazon DocumentDB(MongoDB와 호환)로 마이그레이션해야 합니다. 솔루션 설계자는 이 마이그레이션을 수행하기 위해 어떤 전략을 선택해야 합니까?. A. EC2 인스턴스 플릿을 생성합니다. EC2 인스턴스에 MongoDB Community Edition을 설치하고 데이터베이스를 생성합니다. 온프레미스 데이터 센터에서 실행 중인 데이터베이스로 지속적인 동기식 복제를 구성합니다. B. AWS Database Migration Service(AWS DMS) 복제 인스턴스를 생성합니다. CDC(변경 데이터 캡처)를 사용하여 온프레미스 MongoDB 데이터베이스에 대한 소스 엔드포인트를 생성합니다. Amazon DocumentDB 데이터베이스에 대한 대상 엔드포인트를 생성합니다. DMS 마이그레이션 작업을 만들고 실행합니다. C. AWS Data Pipeline을 사용하여 데이터 마이그레이션 파이프라인을 생성합니다. 온프레미스 MongoDB 데이터베이스 및 Amazon DocumentDB 데이터베이스에 대한 데이터 노드를 정의합니다. 데이터 파이프라인을 실행할 예약된 작업을 만듭니다. D. AWS Glue 크롤러를 사용하여 온프레미스 MongoDB 데이터베이스의 소스 엔드포인트를 생성합니다. MongoDB 데이터베이스와 Amazon DocumentDB 데이터베이스 간에 지속적 비동기 복제를 구성합니다. 회사가 온프레미스에서 AWS로 애플리케이션을 마이그레이션했습니다. 애플리케이션 프런트엔드는 Application Load Balancer(ALB) 뒤에 있는 두 개의 Amazon EC2 인스턴스에서 실행되는 정적 웹 사이트입니다. 애플리케이션 백엔드는 다른 ALB 뒤에 있는 3개의 EC2 인스턴스에서 실행되는 Python 애플리케이션입니다. EC2 인스턴스는 애플리케이션의 최대 사용량에 대한 온프레미스 사양을 충족하도록 크기가 조정된 대형 범용 온디맨드 인스턴스입니다. 애플리케이션은 매월 평균 수십만 건의 요청을 처리합니다. 그러나 애플리케이션은 주로 점심 시간에 사용되며 나머지 시간에는 트래픽이 최소화됩니다. 솔루션 설계자는 애플리케이션 가용성에 부정적인 영향을 미치지 않으면서 애플리케이션의 인프라 비용을 최적화해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. 모든 EC2 인스턴스를 기존 EC2 인스턴스와 동일한 수의 코어가 있는 컴퓨팅 최적화 인스턴스로 변경합니다. B. 애플리케이션 프런트엔드를 Amazon S3에서 호스팅되는 정적 웹 사이트로 이동합니다. C. AWS Elastic Beanstalk를 사용하여 애플리케이션 프런트엔드를 배포합니다. 노드에 대해 동일한 인스턴스 유형을 사용하십시오. D. 모든 백엔드 EC2 인스턴스를 스팟 인스턴스로 변경합니다. E. 기존 EC2 인스턴스와 코어 수가 동일한 범용 버스트 가능 EC2 인스턴스에 백엔드 Python 애플리케이션을 배포합니다. 한 회사가 최근 AWS에 애플리케이션을 배포했습니다. 애플리케이션은 Amazon DynamoDB를 사용합니다. 회사는 애플리케이션 부하를 측정하고 DynamoDB 테이블의 RCU 및 WCU를 예상 최대 부하와 일치하도록 구성했습니다. 최대 부하는 4시간 동안 일주일에 한 번 발생하며 평균 부하의 두 배입니다. 애플리케이션 로드는 나머지 주의 평균 로드에 가깝습니다. 액세스 패턴에는 테이블 읽기보다 테이블에 대한 쓰기가 더 많이 포함됩니다. 솔루션 설계자는 테이블 비용을 최소화하는 솔루션을 구현해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 피크 기간 동안 용량을 늘리려면 AWS Application Auto Scaling을 사용하십시오. 예약된 RCU 및 WCU를 구매하여 평균 부하에 맞춥니다. B. 테이블에 대한 온디맨드 용량 모드를 구성합니다. C. 테이블 앞에 DynamoDB Accelerator(DAX)를 구성합니다. 프로비저닝된 읽기 용량을 테이블의 새로운 최대 로드와 일치 하도록 줄입니다. D. 테이블 앞에 DynamoDB Accelerator(DAX)를 구성합니다. 테이블에 대한 온디맨드 용량 모드를 구성합니다. 회사에는 AWS Organizations에 많은 AWS 계정이 있는 조직이 있습니다. 솔루션 설계자는 회사가 조직의 AWS 계정에 대한 공통 보안 그룹 규칙을 관리하는 방법을 개선해야 합니다. 회사는 회사의 온프레미스 네트워크에 대한 액세스를 허용하기 위해 각 AWS 계정의 허용 목록에 공통 IP CIDR 범위 세트를 가지고 있습니다. 각 계정 내의 개발자는 보안 그룹에 새 IP CIDR 범위를 추가할 책임이 있습니다. 보안 팀에는 자체 AWS 계정이 있습니다. 현재 보안 팀은 허용 목록이 변경되면 다른 AWS 계정의 소유자에게 알립니다. 솔루션 설계자는 CIDR 범위의 공통 집합을 모든 계정에 배포하는 솔루션을 설계해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 보안 팀의 AWS 계정에서 Amazon Simple Notification Service(Amazon SNS) 주제를 설정합니다. 각 AWS 계정에 AWS Lambda 함수를 배포합니다. SNS 주제가 메시지를 수신할 때마다 실행되도록 Lambda 함수를 구성합니다. IP 주소를 입력으로 받아 계정의 보안 그룹 목록에 추가하도록 Lambda 함수를 구성합니다. SNS 주제에 메시지를 게시하여 변경 사항을 배포하도록 보안 팀에 지시합니다. B. 조직 내의 각 AWS 계정에 새로운 고객 관리 접두사 목록을 만듭니다. 모든 내부 CIDR 범위로 각 계정의 접두사 목록을 채웁니다. 보안 그룹의 계정에서 새로운 고객 관리형 접두사 목록 ID를 허용하도록 각 AWS 계정의 소유자에게 알립니다. 각 AWS 계정 소유자와 업데이트를 공유하도록 보안 팀에 지시합니다. C. 보안 팀의 AWS 계정에서 새로운 고객 관리 접두사 목록을 생성합니다. 모든 내부 CIDR 범위로 고객 관리 접두사 목록을 채웁니다. AWS Resource Access Manager를 사용하여 고객 관리 접두사 목록을 조직과 공유하십시오. 보안 그룹에서 새로운 고객 관리형 접두사 목록 ID를 허용하도록 각 AWS 계정의 소유자에게 알립니다. D. 조직의 각 계정에서 IAM 역할을 생성합니다. 보안 그룹을 업데이트할 수 있는 권한을 부여합니다. 보안 팀의 AWS 계정에 AWS Lambda 함수를 배포합니다. 내부 IP 주소 목록을 입력으로 사용하고, 각 조직 계정에서 역할을 수임하고, 각 계정의 보안 그룹에 IP 주소 목록을 추가하도록 Lambda 함수를 구성합니다. 한 회사가 단일 AWS 계정에서 여러 워크로드를 실행하고 있습니다. 새로운 회사 정책에 따르면 엔지니어는 승인된 리소스만 프로비저닝할 수 있으며 엔지니어는 AWS CloudFormation을 사용하여 이러한 리소스를 프로비저닝해야 합니다. 솔루션 설계자는 엔지니어가 액세스에 사용하는 IAM 역할에 새로운 제한을 적용하는 솔루션을 만들어야 합니다. 솔루션 설계자는 솔루션을 생성하기 위해 무엇을 해야 합니까?. A. 승인된 리소스가 포함된 AWS CloudFormation 템플릿을 Amazon S3 버킷에 업로드합니다. Amazon S3 및 AWS CloudFormation에 대한 액세스만 허용하도록 엔지니어의 IAM 역할에 대한 IAM 정책을 업데이트합니다. AWS CloudFormation 템플릿을 사용하여 리소스를 프로비저닝합니다. B. 승인된 리소스 및 AWS CloudFormation의 프로비저닝만 허용하는 권한으로 엔지니어의 IAM 역할에 대한 IAM 정책을 업데이트합니다. AWS CloudFormation 템플릿을 사용하여 승인된 리소스로 스택을 생성합니다. C. AWS CloudFormation 작업만 허용하는 권한으로 엔지니어의 IAM 역할에 대한 IAM 정책을 업데이트합니다. 승인된 리소스를 프로비저닝할 수 있는 권한이 있는 새 IAM 정책을 생성하고 정책을 새 IAM 서비스 역할에 할당합니다. 스택 생성 중에 AWS CloudFormation에 IAM 서비스 역할을 할당합니다. D. AWS CloudFormation 스택에서 리소스를 프로비저닝합니다. 자체 AWS CloudFormation 스택에 대한 액세스만 허용하도록 엔지니어의 IAM 역할에 대한 IAM 정책을 업데이트합니다. 대기업에서 인기 있는 웹 애플리케이션을 실행하고 있습니다. 애플리케이션은 프라이빗 서브넷의 Auto Scaling 그룹에 있는 여러 Amazon EC2 Linux 인스턴스에서 실행됩니다. Application Load Balancer는 프라이빗 서브넷의 Auto Scaling 그룹에 있는 인스턴스를 대상으로 합니다. AWS Systems Manager Session Manager가 구성되었으며 AWS Systems Manager Agent가 모든 EC2 인스턴스에서 실행 중입니다. 회사는 최근 애플리케이션의 새 버전을 출시했습니다. 현재 일부 EC2 인스턴스가 비정상으로 표시되어 종료되고 있습니다. 결과적으로 애플리케이션은 감소된 용량으로 실행됩니다. 솔루션 설계자는 애플리케이션에서 수집된 Amazon CloudWatch 로그를 분석하여 근본 원인을 파악하려고 시도하지만 로그가 결정적이지 않습니다. 솔루션 설계자는 문제를 해결하기 위해 EC2 인스턴스에 대한 액세스 권한을 어떻게 얻어야 합니까?. A. Auto Scaling 그룹의 HealthCheck 조정 프로세스를 일시 중단합니다. 세션 관리자를 사용하여 비정상으로 표시된 인스턴스에 로그인합니다. B. EC2 인스턴스 종료 보호를 활성화합니다. 세션 관리자를 사용하여 비정상으로 표시된 인스턴스에 로그인합니다. C. Auto Scaling 그룹에서 종료 정책을 OldestInstance로 설정합니다. 세션 관리자를 사용하여 비정상으로 표시된 인스턴스에 로그인합니다. D. Auto Scaling 그룹의 종료 프로세스를 일시 중지합니다. 세션 관리자를 사용하여 비정상으로 표시된 인스턴스에 로그인합니다. 회사에서 새로운 웹 기반 애플리케이션을 배포하고 있으며 Linux 애플리케이션 서버용 스토리지 솔루션이 필요합니다. 회사는 모든 인스턴스에 대한 애플리케이션 데이터 업데이트를 위한 단일 위치를 생성하려고 합니다. 활성 데이터 세트의 크기는 최대 100GB입니다. 솔루션 설계자는 매일 3시간 동안 최대 작업이 발생하고 총 225MiBps의 읽기 처리량이 필요하다고 결정했습니다. 솔루션 설계자는 재해 복구(DR)를 위해 다른 AWS 리전에서 사용할 수 있는 데이터 사본을 만드는 다중 AZ 솔루션을 설계해야 합니다. DR 사본의 RPO는 1시간 미만입니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 새로운 Amazon Elastic File System(Amazon EFS) 다중 AZ 파일 시스템을 배포합니다. 프로비저닝된 처리량의 75MiBps에 대해 파일 시스템을 구성합니다. DR 지역의 파일 시스템에 대한 복제를 구현합니다. B. 새로운 Amazon FSx for Lustre 파일 시스템을 배포합니다. 파일 시스템에 대한 버스팅 처리량 모드를 구성합니다. AWS Backup을 사용하여 파일 시스템을 DR 리전에 백업합니다. C. 처리량이 225MiBps인 범용 SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨을 배포합니다. EBS 볼륨에 대해 다중 연결을 활성화합니다. AWS Elastic Disaster Recovery를 사용하여 EBS 볼륨을 DR 리전에 복제합니다. D. 프로덕션 리전과 DR 리전 모두에 Amazon FSx for OpenZFS 파일 시스템을 배포합니다. 10분마다 프로덕션 파일 시스템에서 DR 파일 시스템으로 데이터를 복제하는 AWS DataSync 예약 작업을 생성합니다. 감사 중에 보안 팀은 개발 팀이 코드에 IAM 사용자 보안 액세스 키를 넣은 다음 AWS CodeCommit 리포지토리에 Commit하고 있음을 발견했습니다. 보안 팀은 이 보안 취약점의 인스턴스를 자동으로 찾아 수정하기를 원합니다. 자격 증명이 자동으로 적절하게 보호되도록 보장하는 솔루션은 무엇입니까?. A. AWS Systems Manager Run Command를 사용하여 야간에 스크립트를 실행하여 개발 인스턴스에서 자격 증명을 검색합니다. 찾은 경우 AWS Secrets Manager를 사용하여 자격 증명을 교체합니다. B. 예약된 AWS Lambda 함수를 사용하여 CodeCommit에서 애플리케이션 코드를 다운로드하고 스캔합니다. 자격 증명이 발견되면 새 자격 증명을 생성하고 AWS KMS에 저장합니다. C. CodeCommit 리포지토리에서 자격 증명을 검색하도록 Amazon Macie를 구성합니다. 자격 증명이 발견되면 AWS Lambda 함수를 트리거하여 자격 증명을 비활성화하고 사용자에게 알립니다. D. AWS Lambda 함수를 호출하여 자격 증명에 대한 새 코드 제출을 스캔하도록 CodeCommit 트리거를 구성합니다. 자격 증명이 발견되면 AWS IAM에서 비활성화하고 사용자에게 알립니다. 통신 회사는 AWS에서 애플리케이션을 실행하고 있습니다. 회사는 회사의 온프레미스 데이터 센터와 AWS 간에 AWS Direct Connect 연결을 설정했습니다. 회사는 내부 Application Load Balancer(ALB) 뒤에 있는 여러 가용 영역의 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 회사의 클라이언트는 HTTPS를 사용하여 온프레미스 네트워크에서 연결합니다. TLS는 ALB에서 종료됩니다. 회사에는 여러 대상 그룹이 있으며 경로 기반 라우팅을 사용하여 URL 경로를 기반으로 요청을 전달합니다. 회사는 IP 주소를 기반으로 하는 허용 목록을 사용하여 온프레미스 방화벽 어플라이언스를 배포할 계획입니다. 솔루션 설계자는 클라이언트가 애플리케이션에 계속 액세스할 수 있도록 온프레미스 네트워크에서 AWS로의 트래픽 흐름을 허용하는 솔루션을 개발해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 고정 IP 주소를 사용하도록 기존 ALB를 구성합니다. 여러 가용 영역의 IP 주소를 ALB에 할당합니다. 방화벽 어플라이언스에 ALB IP 주소를 추가합니다. B. NLB(Network Load Balancer)를 생성합니다. NLB를 여러 가용 영역에 있는 하나의 정적 IP 주소와 연결합니다. NLB에 대한 ALB 유형 대상 그룹을 생성하고 방화벽 어플라이언스에 기존 ALAdd the NLB IP 주소를 추가합니다. NLB에 연결하도록 클라이언트를 업데이트합니다. C. NLB(Network Load Balancer)를 생성합니다. NLB를 여러 가용 영역에 있는 하나의 고정 IP 주소와 연결합니다. 기존 대상 그룹을 NLB에 추가하십시오. NLB에 연결하도록 클라이언트를 업데이트합니다. ALB 삭제 방화벽 어플라이언스에 NLB IP 주소를 추가합니다. D. 게이트웨이 로드 밸런서(GWLB)를 생성합니다. 여러 가용 영역에서 GWLB에 고정 IP 주소를 할당합니다. GWLB에 대한 ALB 유형 대상 그룹을 생성하고 기존 ALB를 추가합니다. 방화벽 어플라이언스에 GWLB IP 주소를 추가합니다. GWLB에 연결하도록 클라이언트를 업데이트합니다. 소매 회사는 AWS에서 전자 상거래 애플리케이션을 운영하고 있습니다. 애플리케이션은 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 이 회사는 Amazon RDS DB 인스턴스를 데이터베이스 백엔드로 사용합니다. Amazon CloudFront는 ALB를 가리키는 하나의 오리진으로 구성됩니다. 정적 콘텐츠가 캐시됩니다. Amazon Route 53은 모든 퍼블릭 영역을 호스팅하는 데 사용됩니다. 애플리케이션 업데이트 후 ALB는 때때로 502 상태 코드(잘못된 게이트웨이) 오류를 반환합니다. 근본 원인은 ALB에 반환되는 잘못된 형식의 HTTP 헤더입니다. 오류가 발생한 직후 솔루션 설계자가 웹 페이지를 다시 로드하면 웹 페이지가 성공적으로 반환됩니다. 회사에서 문제를 해결하는 동안 솔루션 설계자는 방문자에게 표준 ALB 오류 페이지 대신 사용자 지정 오류 페이지를 제공해야 합니다. 최소한의 운영 오버헤드로 이 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. Amazon S3 버킷을 생성합니다. 정적 웹 페이지를 호스팅하도록 S3 버킷을 구성합니다. 사용자 지정 오류 페이지를 Amazon S3에 업로드합니다. B. ALB 상태 확인 응답 Target.FailedHealthChecks가 0보다 큰 경우 AWS Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다. 공개적으로 액세스 가능한 웹 서버를 가리키도록 ALB에서 전달 규칙을 수정하도록 Lambda 함수를 구성합니다. C. 상태 확인을 추가하여 기존 Amazon Route 53 레코드를 수정합니다. 상태 확인이 실패할 경우 폴백 대상을 구성합니다. 공개적으로 액세스할 수 있는 웹페이지를 가리키도록 DNS 레코드를 수정합니다. D. ALB 상태 확인 응답 Elb.InternalError가 0보다 큰 경우 AWS Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다. 공개적으로 액세스 가능한 웹 서버를 가리키도록 ALB에서 전달 규칙을 수정하도록 Lambda 함수를 구성합니다. E. 사용자 지정 오류 페이지를 구성하여 사용자 지정 오류 응답을 CloudFront 추가합니다. 공개적으로 액세스할 수 있는 웹 페이지를 가리키도록 DNS 레코드를 수정합니다. 한 회사에 여러 AWS 계정이 있습니다. 개발 팀은 클라우드 거버넌스 및 문제 해결 프로세스를 위한 자동화 프레임워크를 구축하고 있습니다. 자동화 프레임워크는 중앙 집중식 계정에서 AWS Lambda 함수를 사용합니다. 솔루션 설계자는 Lambda 함수가 회사의 각 AWS 계정에서 실행될 수 있도록 허용하는 최소 권한 정책을 구현해야 합니다. 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.). A. 중앙 집중식 계정에서 Lambda 서비스를 신뢰할 수 있는 엔터티로 포함하는 IAM 역할을 생성합니다. 다른 AWS 계정의 역할을 맡도록 인라인 정책을 추가합니다. B. 다른 AWS 계정에서 최소한의 권한을 가진 IAM 역할을 생성합니다. 중앙 집중식 계정의 Lambda IAM 역할을 신뢰할 수 있는 엔터티로 추가합니다. C. 중앙 집중식 계정에서 다른 계정의 역할을 신뢰할 수 있는 엔터티로 갖는 IAM 역할을 생성합니다. 최소한의 권한을 제공합니다. D. 다른 AWS 계정에서 중앙 집중식 계정의 역할을 맡을 권한이 있는 IAM 역할을 생성합니다. Lambda 서비스를 신뢰할 수 있는 엔터티로 추가합니다. E. 다른 AWS 계정에서 최소 권한을 가진 IAM 역할을 생성합니다. Lambda 서비스를 신뢰할 수 있는 엔터티로 추가합니다. 회사에서 AWS Organizations를 사용하여 여러 AWS 계정을 관리하고 있습니다. 보안을 위해 회사는 모든 조직 구성원 계정에서 타사 알림 시스템과 통합할 수 있는 Amazon Simple Notification Service(Amazon SNS) 항목을 생성해야 합니다. 솔루션 설계자는 AWS CloudFormation 템플릿을 사용하여 CloudFormation 스택의 배포를 자동화하기 위한 SNS 주제 및 스택 세트를 생성했습니다. 조직에서 신뢰할 수 있는 액세스가 활성화되었습니다. 모든 AWS 계정에 CloudFormation StackSets를 배포하려면 솔루션 설계자가 무엇을 해야 합니까?. A. 조직 구성원 계정에서 스택 세트를 생성합니다. 서비스 관리 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 드리프트 감지를 사용합니다. B. 조직 구성원 계정에서 스택을 생성합니다. 셀프 서비스 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 자동 배포를 활성화합니다. C. 조직 마스터 계정에 스택 세트를 생성합니다. 서비스 관리 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 자동 배포를 활성화합니다. D. 조직 마스터 계정에서 스택을 생성합니다. 서비스 관리 권한을 사용합니다. 조직에 배포할 배포 옵션을 설정합니다. CloudFormation StackSets 드리프트 감지를 활성화합니다. 한 회사가 VPC의 퍼블릭 서브넷에 있는 5개의 Amazon EC2 인스턴스에서 모바일 앱용 모놀리식 REST 기반 API를 호스팅하고 있습니다. 모바일 클라이언트는 Amazon Route 53에서 호스팅되는 도메인 이름을 사용하여 API에 연결합니다. 회사는 모든 EC2 인스턴스의 IP 주소로 Route 53 다중값 응답 라우팅 정책을 생성했습니다. 최근 이 앱은 갑작스러운 대규모 트래픽 증가에 압도당했습니다. 앱이 트래픽을 따라잡지 못했습니다. 솔루션 설계자는 앱이 새롭고 다양한 로드를 처리할 수 있도록 솔루션을 구현해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. API를 개별 AWS Lambda 함수로 분리합니다. 백엔드에 대한 Lambda 통합으로 Amazon API Gateway REST API를 구성합니다. API Gateway API를 가리키도록 Route 53 레코드를 업데이트합니다. B. API 로직을 컨테이너화합니다. Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 생성합니다. Amazon EC2를 사용하여 클러스터에서 컨테이너를 실행합니다. Kubernetes 인그레스를 만듭니다. Kubernetes 수신을 가리키도록 Route 53 레코드를 업데이트합니다. C. Auto Scaling 그룹을 생성합니다. Auto Scaling 그룹에 모든 EC2 인스턴스를 배치합니다. CPU 사용률을 기반으로 조정 작업을 수행하도록 Auto Scaling 그룹을 구성합니다. Auto Scaling 그룹 변경에 반응하고 Route 53 레코드를 업데이트하는 AWS Lambda 함수를 생성합니다. D. API 앞에 Application Load Balancer(ALB)를 생성합니다. EC2 인스턴스를 VPC의 프라이빗 서브넷으로 이동합니다. ALB의 대상으로 EC2 인스턴스를 추가합니다. ALB를 가리키도록 Route 53 레코드를 업데이트합니다. 회사는 전자 상거래 웹 사이트를 위한 재해 복구 DR( ) 솔루션을 구축해야 합니다. 웹 애플리케이션은 t3.large Amazon EC2 인스턴스 플릿에서 호스팅되며 Amazon RDS for MySQL DB 인스턴스를 사용합니다. EC2 인스턴스는 여러 가용 영역에 걸쳐 확장되는 Auto Scaling 그룹에 있습니다. 재해 발생 시 웹 애플리케이션은 RPO 30초 및 RTO 10분으로 보조 환경으로 장애 조치해야 합니다. 이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?. A. 코드형 인프라(IaC)를 사용하여 DR 지역에서 새 인프라를 프로비저닝합니다. DB 인스턴스에 대한 리전 간 읽기 전용 복제본을 생성합니다. AWS Backup에서 백업 계획을 설정하여 EC2 인스턴스 및 DB 인스턴스에 대한 교차 리전 백업을 생성합니다. EC2 인스턴스와 DB 인스턴스를 30초마다 DR 지역에 백업하는 cron 표현식을 생성합니다. 최신 EC2 백업에서 EC2 인스턴스를 복구합니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 재해 발생 시 자동으로 DR 리전으로 장애 조치합니다. B. 코드형 인프라(IaC)를 사용하여 DR 지역에서 새 인프라를 프로비저닝합니다. DB 인스턴스에 대한 리전 간 읽기 전용 복제본을 생성합니다. EC2 인스턴스를 DR 지역에 지속적으로 복제하도록 AWS Elastic Disaster Recovery를 설정합니다. DR 지역에서 최소 용량으로 EC2 인스턴스를 실행합니다. Amazon Route 53 장애 조치 라우팅 정책을 사용하여 재해 발생 시 자동으로 DR 리전으로 장애 조치합니다. Auto Scaling 그룹의 원하는 용량을 늘립니다. C. AWS Backup에서 백업 계획을 설정하여 EC2 인스턴스 및 DB 인스턴스에 대한 교차 리전 백업을 생성합니다. EC2 인스턴스와 DB 인스턴스를 30초마다 DR 지역에 백업하는 cron 표현식을 생성합니다. 코드형 인프라(IaC)를 사용하여 DR 리전에서 새 인프라를 프로비저닝합니다. 새 인스턴스에서 백업된 데이터를 수동으로 복원합니다. 재해 발생 시 Amazon Route53 단순 라우팅 정책을 사용하여 DR 리전으로 자동 장애 조치합니다. D. IaC(코드형 인프라)를 사용하여 DR 지역에서 새 인프라를 프로비저닝합니다. Amazon Aurora 글로벌 데이터베이스를 생성합니다. EC2 인스턴스를 DR 지역에 지속적으로 복제하도록 AWS Elastic Disaster Recovery를 설정합니다. DR 지역에서 전체 용량으로 EC2 인스턴스의 Auto Scaling 그룹을 실행합니다. Amazon Route 53 장애 조치 라우팅 정책을 사용하여 재해 발생 시 자동으로 DR 리전으로 장애 조치합니다. 회사에서 정적 콘텐츠를 호스팅하는 새 웹 사이트를 디자인하고 있습니다. 이 웹사이트는 사용자에게 대용량 파일을 업로드하고 다운로드할 수 있는 기능을 제공합니다. 회사 요구 사항에 따라 모든 데이터는 전송 중 및 유휴 상태에서 암호화되어야 합니다. 솔루션 설계자는 Amazon S3 및 Amazon CloudFront를 사용하여 솔루션을 구축하고 있습니다. 어떤 단계 조합이 암호화 요구 사항을 충족합니까? (3개를 선택하세요.). A. 웹 애플리케이션이 사용하는 S3 버킷에 대해 S3 서버 측 암호화를 켭니다. B. S3 ACL의 읽기 및 쓰기 작업에 대해 "aws:SecureTransport": "true" 정책 속성을 추가합니다. C. 웹 애플리케이션이 사용하는 S3 버킷에서 암호화되지 않은 작업을 거부하는 버킷 정책을 만듭니다. D. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하여 CloudFront에서 유휴 암호화를 구성합니다. E. CloudFront에서 HTTP 요청의 HTTPS 요청으로의 리디렉션을 구성합니다. F. 웹 애플리케이션이 사용하는 S3 버킷에 대해 미리 서명된 URL을 생성할 때 RequireSSL 옵션을 사용하십시오. 회사는 고정 포트에서 TCP를 사용하여 액세스할 새로운 서비스를 개발하고 있습니다. 솔루션 설계자는 서비스의 가용성이 높고 가용성 영역 전체에 중복성이 있으며 공개적으로 액세스할 수 있는 DNS 이름 my.service.com을 사용하여 액세스할 수 있는지 확인해야 합니다. 다른 회사에서 허용 목록에 주소를 추가할 수 있도록 서비스에서 고정 주소 할당을 사용해야 합니다. 리소스가 단일 리전의 여러 가용 영역에 배포된다고 가정할 때 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. 각 인스턴스에 탄력적 IP 주소를 사용하여 Amazon EC2 인스턴스를 생성합니다. NLB(Network Load Balancer)를 생성하고 정적 TCP 포트를 노출합니다. NLB에 EC2 인스턴스를 등록합니다. my.service.com이라는 새 이름 서버 레코드 세트를 생성하고 EC2 인스턴스의 탄력적 IP 주소를 레코드 세트에 할당합니다. 허용 목록에 추가할 다른 회사에 EC2 인스턴스의 탄력적 IP 주소를 제공합니다. B. 애플리케이션에 대한 Amazon ECS 클러스터 및 서비스 정의를 생성합니다. ECS 클러스터에 대한 퍼블릭 IP 주소를 생성하고 할당합니다. NLB(Network Load Balancer)를 생성하고 TCP 포트를 노출합니다. 대상 그룹을 생성하고 ECS 클러스터 이름을 NL에 할당합니다. my.service.com이라는 새 A 레코드 세트를 생성하고 ECS 클러스터의 퍼블릭 IP 주소를 레코드 세트에 할당합니다 허용 목록에 추가할 . 다른 회사에 ECS 클러스터의 공용 IP 주소를 제공합니다. C. 서비스에 대한 Amazon EC2 인스턴스를 생성합니다. 각 가용 영역에 대해 하나의 탄력적 IP 주소를 생성합니다. NLB(Network Load Balancer)를 생성하고 할당된 TCP 포트를 노출합니다. 각 가용 영역의 NLB에 탄력적 IP 주소를 할당합 니다. 대상 그룹을 생성하고 EC2 인스턴스를 NLB에 등록합니다. my.service.com이라는 새 A(별칭) 레코드 세트를 만들고 NLB DNS 이름을 레코드 세트에 할당합니다. D. 애플리케이션에 대한 Amazon ECS 클러스터 및 서비스 정의를 생성합니다. 클러스터의 각 호스트에 대해 공용 IP 주소를 생성하고 할당합니다. ALB(Application Load Balancer)를 생성하고 정적 TCP 포트를 노출합니다. 대상 그룹을 생성하고 ECS 서비스 정의 이름을 ALB에 할당합니다. 새 CNAME 레코드 집합을 만들고 퍼블릭 IP 주소를 레코드 집합에 연결합니다. 허용 목록에 추가할 다른 회사에 Amazon EC2 인스턴스의 탄력적 IP 주소를 제공합니다. 한 회사가 us-east-1 리전의 Amazon RDS for MySQL DB 인스턴스에 데이터베이스를 배포했습니다. 회사는 유럽의 고객이 데이터를 사용할 수 있도록 해야 합니다. 유럽의 고객은 미국(US)의 고객과 동일한 데이터에 액세스할 수 있어야 하며 높은 애플리케이션 대기 시간 또는 오래된 데이터를 허용하지 않습니다. 유럽 고객과 미국 고객은 데이터베이스에 기록해야 합니다. 두 고객 그룹 모두 다른 그룹의 업데이트를 실시간으로 확인해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?. A. RDS for MySQL DB 인스턴스의 Amazon Aurora MySQL 복제본을 생성합니다. RDS DB 인스턴스에 대한 애플리케이션 쓰기를 일시 중지합니다. Aurora 복제본을 독립 실행형 DB 클러스터로 승격합니다. Aurora 데이터베이스를 사용하도록 애플리케이션을 재구성하고 쓰기를 재개하십시오. eu-west-1을 DB 클러스터에 보조 리전으로 추가합니다. DB 클러스터에서 쓰기 전달을 활성화합니다. eu-west-1에 애플리케이션을 배포합니다. eu-west-1에서 Aurora MySQL 엔드포인트를 사용하도록 애플리케이션을 구성합니다. B. RDS for MySQL DB 인스턴스에 대해 eu-west-1에 교차 리전 복제본을 추가합니다. 쓰기 쿼리를 다시 기본 DB 인스턴스로 복제하도록 복제본을 구성합니다. eu-west-1에 애플리케이션을 배포합니다. eu-west-1에서 RDS for MySQL 엔드포인트를 사용하도록 애플리케이션을 구성합니다. C. RDS for MySQL DB 인스턴스에서 가장 최근 스냅샷을 eu-west-1에 복사합니다. 스냅샷에서 eu-west-1에 새 RDS for MySQL DB 인스턴스를 생성합니다. us-east-1에서 eu-west-1로 MySQL 논리적 복제를 구성합니다. DB 클러스터에서 쓰기 전달을 활성화합니다. eu-wes1에 애플리케이션을 배포합니다. eu-west-1에서 RDS for MySQL 엔드포인트를 사용하도록 애플리케이션을 구성합니다. D. RDS for MySQL DB 인스턴스를 Amazon Aurora MySQL DB 클러스터로 변환합니다. eu-west-1을 DB 클러스터에 보조 리전으로 추가합니다. DB 클러스터에서 쓰기 전달을 활성화합니다. eu-west-1에 애플리케이션을 배포합니다. eu-west-1에서 Aurora MySQL 엔드포인트를 사용하도록 애플리케이션을 구성합니다. 회사는 개발자가 Amazon EC2, Amazon S3 및 Amazon DynamoDB만 사용하도록 제한하기 위해 AWS Organizations 를 구현하는 과정에 있습니다. 개발자 계정은 전용 조직 단위(OU)에 상주합니다. 솔루션 설계자는 개발자 계정에 다음 SCP를 구현했습니다. 이 정책이 배포되면 개발자 계정의 사용자는 정책에 IAM 나열되지 않은 AWS 서비스를 계속 사용할 수 있습니다. 이 정책의 범위를 벗어나는 서비스를 사용하는 개발자의 능력을 제거하기 위해 솔루션 설계자는 무엇을 해야 합니까?. A. 제한해야 하는 각 AWS 서비스에 대해 명시적인 거부 문을 만듭니다. B. 개발자 계정의 OU에서 FullAWSAccess SCP를 제거합니다. C. 모든 서비스를 명시적으로 거부하도록 FullAWSAccess SCP를 수정합니다. D. SCP 끝에 와일드카드를 사용하여 명시적인 거부 문을 추가합니다. 회사에는 AWS Organizations의 조직에 속하는 10개의 계정이 있습니다. AWS Config는 각 계정에서 구성됩니다. 모든 계정은 Prod OU 또는 NonProd OU에 속합니다. 회사는 소스가 0.0.0.0/0인 Amazon EC2 보안 그룹 인바운드 규칙이 생성될 때 Amazon Simple Notification Service(Amazon SNS) 주제에 알리도록 각 AWS 계정에 Amazon EventBridge 규칙을 설정했습니다. 회사의 보안팀이 SNS 주제를 구독하고 있습니다. NonProd OU의 모든 계정에 대해 보안 팀은 0.0.0.0/0을 소스로 포함하는 보안 그룹 인바운드 규칙을 생성하는 기능을 제거해야 합니다. 최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?. A. AWS Lambda 함수를 호출하여 보안 그룹 인바운드 규칙을 제거하고 SNS 주제에 게시하도록 EventBridge 규칙을 수정합니다. 업데이트된 규칙을 NonProd OU에 배포합니다. B. NonProd OU에 vpc-sg-open-only-to-authorized-ports AWS Config 관리 규칙을 추가합니다. C. aws:SourceIp 조건 키의 값이 0.0.0.0/0이 아닌 경우 ec2:AuthorizeSecurityGroupIngress 작업을 허용하도록 SCP를 구성합니다. SCP를 NonProd OU에 적용합니다. D. aws:SourceIp 조건 키의 값이 0.0.0.0/0일 때 ec2:AuthorizeSecurityGroupIngress 작업을 거부하도록 SCP를 구성합니다. SCP를 NonProd OU에 적용합니다. |




