-
AWS SAA-C03(Solution Architect Associate) 문제 공유 및 덤프 공유(가능)클라우드/AWS 2023. 12. 13. 14:30반응형
저번에는 자격증 취득 후기 및 공부 방법에 대해서 공유를 해보았다면 이번에는 SAA-C03의 문제 공유 및 덤프 공유를 해보려고 한다.
아래 링크를 통해 글쓴이의 자격증 취득 후기를 참고 해보아도 도움이 될것 같다.
https://richard1102.tistory.com/entry/AWS-SAA-003-자격증-취득-후기-및-공부방법Solution-Architect-Associate
AWS SAA-003 자격증 취득 후기 및 공부방법(Solution Architect Associate)
첫 블로그 글은 이번년(2023)도 9월달에 합격한 AWS SAA(Solution Architect Associate)에 관해서 쓰기로 해보았다. 클라우드에 관심이 있고 처음에 무슨 자격증을 따야 할지 고민 된다면 CSP 단연 1등인 AWS 자
richard1102.tistory.com
작년도에 SAA-C02에서 8월 30일 기준으로 SAA-C03으로 바뀌었으며 현재는 업데이트가 된지 1년 이상 된 C03이기 때문에 현재 덤프 문제만 봐도 충분히 합격을 할수 있을거 같다.
AWS에서 공식적으로 제공하는 샘플 문제 :
비공식 덤프 사이트 :
- examtopics : https://www.examtopics.com/exams/amazon/aws-certified-solutions-architect-associate-saa-c03/
Free & Accurate Amazon AWS Certified Solutions Architect - Associate SAA-C03 Practice Questions | ExamTopics
www.examtopics.com
Free Amazon SAA-C03 Exam Questions & Answer - eleven Updates Materials
Free Amazon SAA-C03 Exam Practice Materials Collection (Here are eleven updated materials). Pass Amazon AWS Certified Solutions Architect - Associate (SAA-C03) Exam at first try. Instant Online Access SAA-C03 Self Test Engine.
www.freecram.net
- itdumpskr.com : https://www.itdumpskr.com/SAA-C03-KR-practice-test.html
Amazon인증 실제 시험문제, SAA-C03 Korean 덤프문제집 - 모의시험
www.itdumpskr.com
등이 있다.
이렇게 무료로 문제를 풀어볼 수 있고 글쓴이는 직접 유료 결제를 통해 덤프를 구매 하였으며
총 570 문제로 되어 있다.
일단 유데미로 기초 지식을 쌓고 덤프를 풀어보는 것을 추천한다.
이유는 덤프만 풀어서 합격을 해도 실무적으로 이용하기에는 커다란 벽이 있기 때문에 SAA에 포함된 기능,기술을 이해하고 덤프로 공부하는것이 좋다고 생각이 든다.
몇 문제 정도 공유를 해보려고 합니다.
Q1
회사는 여러 대륙에 걸쳐 도시의 온도, 습도 및 대기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 데이터의 평균 볼륨은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
이 회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
C. AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
D. 각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
Answer: A
Q5
회사는 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다.
솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 합니까?
A. 두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다.
B. 문서가 있는 서버로 사용자를 안내하도록 Application Load Balancer를 구성합니다.
C. 두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. 새 문서를 Amazon EFS에 저장하도록 애플리케이션을 수정합니다.
D. 두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.
Answer: C
Q14
회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 전자 상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 메트릭을 기반으로 확장됩니다. 전자 상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 트랜잭션 데이터를 저장합니다.
애플리케이션 로드가 증가하면 데이터베이스의 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 이 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 워크로드의 수요를 충족하도록 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
C. 다중 AZ 배포와 함께 Amazon Aurora를 사용합니다. Aurora 복제본을 사용하여 Aurora Auto Scaling을 구성합니다.
D. EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용합니다.
Answer: C
Q22
솔루션 설계자는 Amazon S3를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하고 있습니다. 미디어 파일은 가용 영역 손실에 대한 복원력이 있어야 합니다. 일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스되지 않습니다. 솔루션 설계자는 미디어 파일을 저장하고 검색하는 비용을 최소화해야 합니다.
이러한 요구 사항을 충족하는 스토리지 옵션은 무엇입니까?
A. S3 Standard (S3 표준)
B. S3 Intelligent-Tiering (S3 지능형 계층화)
C. S3 Standard-Infrequent Access(S3 Standard-IA)
D. S3 One Zone-Infrequent Access(S3 One Zone-IA)
Answer: B
Q29
회사는 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 회사는 여러 AWS 리전에 배포하고 있습니다.
회사는 지연 시간이 가장 짧은 리전으로 사용자를 라우팅해야 합니다. 이 회사는 또한 지역 간 자동 장애 조치가 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
B. ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
C. NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
D. ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 레코드를 생성합니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
Answer: A
Q40
회사에는 매일 1TB의 상태 알림을 집합적으로 생성하는 수천 개의 에지 장치가 있습니다. 각 경고의 크기는 약 2KB입니다. 솔루션 설계자는 향후 분석을 위해 경고를 수집하고 저장하는 솔루션을 구현해야 합니다.
회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라 관리를 원하지 않습니다. 또한 회사는 즉각적인 분석을 위해 14일 동안의 데이터를 유지하고 14일이 지난 데이터를 보관하기를 원합니다.
이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까?
A. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon S3 버킷에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
B. 두 가용 영역에서 Amazon EC2 인스턴스를 시작하고 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. Amazon S3 버킷에 경고를 저장할 EC2 인스턴스에 대한 스크립트를 생성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 만들고 클러스터에서 14일이 지난 데이터를 삭제합니다.
D. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 생성하여 알림을 수집하고 메시지 보존 기간을 14일로 설정합니다. SQS 대기열을 폴링하고, 메시지의 수명을 확인하고, 필요에 따라 메시지 데이터를 분석하도록 소비자를 구성합니다. 메시지가 14일이 지난 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야 합니다.
Answer: A
Q45
회사에는 다음으로 구성된 데이터 수집 워크플로가 있습니다.
• 새로운 데이터 전송에 대한 알림을 위한 Amazon Simple Notification Service(Amazon SNS) 주제
• 데이터를 처리하고 메타데이터를 기록하는 AWS Lambda 함수
회사는 네트워크 연결 문제로 인해 수집 워크플로가 때때로 실패하는 것을 관찰했습니다. 이러한 장애가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 Lambda 함수는 해당 데이터를 수집하지 않습니다.
Lambda 함수가 향후 모든 데이터를 수집하도록 하려면 솔루션 설계자가 취해야 하는 작업 조합은 무엇입니까? (2개를 선택하세요.)
A. 여러 가용 영역에 Lambda 함수를 배포합니다.
B. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성하고 SNS 주제를 구독합니다.
C. Lambda 함수에 할당된 CPU와 메모리를 늘립니다.
D. Lambda 함수에 대해 프로비저닝된 처리량을 늘립니다.
E. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽도록 Lambda 함수를 수정합니다.
Answer: B, E
Q136
회사는 온프레미스 PostgreSQL 데이터베이스를 Amazon Aurora PostgreSQL로 마이그레이션하고 있습니다. 온-프레미스 데이터베이스는 온라인 상태를 유지하고 마이그레이션 중에 액세스할 수 있어야 합니다. Aurora 데이터베이스는 온프레미스 데이터베이스와 동기화된 상태를 유지해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자가 취해야 하는 조치의 조합은 무엇입니까? (2개를 선택하세요.)
A. 지속적인 복제 작업을 만듭니다.
B. 온프레미스 데이터베이스의 데이터베이스 백업을 생성합니다.
C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
E. 데이터베이스 동기화를 모니터링하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
Answer: A, C
Q138
회사는 AWS에서 전자 상거래 애플리케이션을 실행합니다. 모든 새 주문은 단일 가용 영역의 Amazon EC2 인스턴스에서 실행되는 RabbitMQ 대기열에 마사지로 게시됩니다. 이러한 메시지는 별도의 EC2 인스턴스에서 실행되는 다른 애플리케이션에서 처리됩니다. 이 애플리케이션은 다른 EC2 인스턴스의 PostgreSQL 데이터베이스에 세부 정보를 저장합니다. 모든 EC2 인스턴스는 동일한 가용 영역에 있습니다.
회사는 최소한의 운영 오버헤드로 최고의 가용성을 제공하도록 아키텍처를 재설계해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 대기열을 Amazon MQ에서 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대해 다른 다중 AZ Auto Scaling 그룹을 생성합니다.
B. 대기열을 Amazon MQ에서 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행하도록 데이터베이스를 마이그레이션합니다.
C. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스용 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대해 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행하도록 데이터베이스를 마이그레이션합니다.
D. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스용 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대해 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ Auto Scaling 그룹을 생성합니다.
Answer: B
Q247
한 회사에서 MySQL용 Amazon RDS에 데이터베이스를 배포했습니다. 트랜잭션 증가로 인해 데이터베이스 지원 팀은 DB 인스턴스에 대한 느린 읽기를 보고하고 있으며 읽기 전용 복제본을 추가할 것을 권장합니다.
이 변경 사항을 구현하기 전에 솔루션 설계자가 수행해야 하는 작업 조합은 무엇입니까? (2개 선택)
A. RDS 기본 노드에서 binlog 복제를 활성화합니다.
B. 원본 DB 인스턴스의 장애 조치 우선 순위를 선택합니다.
C. 원본 DB 인스턴스에서 장기 실행 트랜잭션이 완료되도록 허용합니다.
D. 글로벌 테이블을 생성하고 테이블을 사용할 수 있는 AWS 리전을 지정합니다.
E. 백업 보존 기간을 0 이외의 값으로 설정하여 원본 인스턴스에서 자동 백업을 활성화합니다.
Answer: C, E
Q308
회사에 통합 결제를 사용하는 여러 AWS 계정이 있습니다. 이 회사는 90일 동안 여러 개의 활성 고성능 Amazon RDS for Oracle 온디맨드 DB 인스턴스를 실행합니다. 회사의 재무 팀은 통합 결제 계정 및 기타 모든 AWS 계정에서 AWS Trusted Advisor에 액세스할 수 있습니다.
재무 팀은 적절한 AWS 계정을 사용하여 RDS에 대한 Trusted Advisor 확인 권장 사항에 액세스해야 합니다. 재무팀은 적절한 Trusted Advisor 수표를 검토하여 RDS 비용을 줄여야 합니다.
이러한 요구 사항을 충족하기 위해 재무 팀은 어떤 조합의 단계를 수행해야 합니까? (2개 선택)
A. RDS 인스턴스가 실행 중인 계정의 Trusted Advisor 권장 사항을 사용합니다.
B. 통합 결제 계정의 Trusted Advisor 권장 사항을 사용하여 모든 RDS 인스턴스 확인을 동시에 확인합니다.
C. Amazon RDS 예약 인스턴스 최적화에 대한 Trusted Advisor 검사를 검토합니다.
D. Amazon RDS 유휴 DB 인스턴스에 대한 Trusted Advisor 검사를 검토합니다.
E. Amazon Redshift 예약 노드 최적화에 대한 Trusted Advisor 검사를 검토합니다.
Answer: B, D
한번 풀어 보는것도 좋다고 생각합니다!
덤프 공유는 댓글 예쁘게 & 이메일 주소 써 주시면 공유 해드릴게요.
덤프는 한문과 영문 버전으로 pdf 있습니다.
마음 조급해 하지 마시고 천천히 하시면 합격 하실겁니다!
합격 기원합니다😎
*제가 매일 블로그를 보는게 아니라서 파일 공유가 조금 느릴수 있지만 최대한 빨리 보도록 노력하겠습니다!
반응형'클라우드 > AWS' 카테고리의 다른 글
S3 Express One Zone 스토리지 클래스 (0) 2024.04.11 AWS 재해 복구에 대해서 알아봅시다. (0) 2024.03.31 AWS EC2 요금 모델에 대해 알아보자! (0) 2024.02.07 AWS SAA-003 자격증 취득 후기 및 공부방법(Solution Architect Associate) (1) 2023.12.10