일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 실용주의 프로그래머
- 지표
- docker
- amazon ecs
- MAPF
- terraform
- 청첩장 모임
- Go-lang
- Playwright
- 신혼 여행
- Rust
- 디자인 패턴
- 14일 공부
- study
- PostgreSQL
- Til
- 생성 패턴
- AWS
- 티스토리챌린지
- 오블완
- Monthly Checklist
- ssh
- AWS 비용 절감
- 논문 정리
- 경로 계획 알고리즘
- DevOps
- 도커 주의사항
- github
- leetcode
- 구조 패턴
- Today
- Total
목록aws (33)
밤 늦게까지 여는 카페

안녕하세요. 오늘은 AWS RDS 부하 분석에 필수 도구인 Performance Insights에 대해서 공부한 내용을 정리하려고 합니다. Performance Insights가 무엇인지, 어떻게 활용할 수 있는지 정리해봤는데 도움이 되었으면 좋겠네요!TL-DRAAS 추이를 주기적으로 확인해서 이상 신호를 포착하면튜플 returned/fetched, IO, 네트워크 등 다른 지표를 활용해서 근본 원인 분석인덱스 추가, 쿼리 최적화, 인스턴스 유형 변경 등의 대응 방안 검토1. Performance Insights가 뭐에요?AWS RDS에서 제공하는 Performance Insights는 DB 병목 현상을 신속하게 파악할 수 있도록 도와주는 모니터링 도구입니다.특히 DB Load를 시각화 해주는 것이 아주..

안녕하세요. 잘 지내고 있으신가요? 저는 갑작스럽게 더워진 날씨에 조금 힘듭니다... ㅜ 이번에는 AWS IoT Core에서 SQL Function을 사용해서 Ingestion time을 로그에 추가한 방법을 기록하려고 합니다.혹시라도 같은 고민을 했던 분들에게 도움이 되었으면 좋겠습니다!TL-DRAWS IoT Core에 데이터가 전달된 시각을 알고 싶다면 Rule Engine에 규칙 추가할 때 timestamp 함수 이용해서 Ingestion Time 작성하자!예시)SELECT parse_time("yyyy-MM-dd'T'HH:mm:ss.sss'Z'", timestamp(), 'UTC') as ingestion_time, * FROM 'topic'1. Ingestion Time이 없는 AWS IoT C..

안녕하세요. 오늘은 AWS IoT Core 메시지 전송 비용을 절감할 수 있는 Basic Ingest 기능을 소개해드리려고 합니다. 1. AWS IoT Core 상당히 비싼 서비스…AWS IoT Core 서비스를 사용해보신 분들은 많이 느끼셨겠지만 AWS IoT Core는 굉장히 비싼 서비스입니다. 일반적으로 인터넷 => AWS 서비스로는 요금이 부과되지 않습니다.하지만 AWS IoT Core로 전송하는 메시지 100만 개당 1.2달러가 부과됩니다. 처음에는 100만개면 충분하다고 생각했지만실시간 데이터 전송에 AWS IoT Core를 사용해 보니 메시지 “100만” 개가 많은 편이 아닙니다. Thing 1개가 1초에 메시지 1개를 전송한다면 1시간에 3,600개 * 하루 24시간 * 한 달 30일 = ..

안녕하세요. 오늘은 Amazon ECS를 사용하면서 겪었던 실수를 공유드리고자 합니다.드물지만 한번쯤 겪을 수도 있으니 재밌게 읽어주세요!1. 문제 상황일찍 출근해서 맑은 정신으로 업무를 처리하고 있던 어느 날, 깜짝 놀랄만한 슬랙 메시지가 보입니다.서비스 접속이 안된다는 것입니다! 그나마 테스트 환경의 서비스에 접속이 안되는 것이 천만다행이었지요. 접속해서 직접 확인해보니 503 Service Unavailable 코드가 반환되고 있었습니다. 서비스가 죽을만한 버그는 없었는데 뭔가 싶어서 ECS 콘솔을 확인해보니컨테이너 이미지를 pull 받지 못해서 태스크가 계속 죽고 있었던 것이었습니다. 컨테이너 이미지를 pull 받지 못하는 것은 대체로 ECS 서비스의 네트워크 설정에 문제가 있을 때라서 이해가 되..
안녕하세요. 오늘은 AWS 비용 절감을 위해 시도한 방안 중 하나를 기록하고자 합니다. 주말에는 사용하지 않는 서버를 내리는 정말 간단한 방안인데 적용하기까지는 시간이 오래 걸렸습니다. crontab을 이용해서 deactivate.sh 스크립트를 금요일 밤에 실행하고activate.sh를 월요일 아침에 실행하여 주말에는 사용하지 않는 서버 인스턴스들이 자동으로 내려가도록 설정했습니다. crontab 예시0 9 * * 1 /home/user/script/activate.sh (월요일 오전 9시에 서버 활성화 시키기)0 20 * * 5 /home/user/script/deactivate.sh (금요일 오후 8시에 서버 비활성화 시키기)activate.sh더보기#!/bin/bash # 클러스터 이름 설정 (필..

안녕하세요. 이번에는 Amazon S3 서비스의 Glacier Deep Archive 복구 경험을 기록하고자 합니다. Amazon S3 서비스는 다양한 스토리지 클래스를 지원하고 있습니다.상황에 맞게 적절한 스토리지를 사용한다면 보다 저렴한 비용으로 데이터를 저장할 수 있는 것이죠. 그중에서 Glacier Deep Archive는 GB당 0.002달러로 Standard 클래스 비용의 십 분의 일보다 더 저렴합니다!참고: https://aws.amazon.com/ko/s3/pricing/대신에 데이터를 조회하기 위해서는 1~2일이라는 데이터 복구 시간을 필요로 합니다. 일반적으로 로그 데이터처럼 시간이 지날수록 조회 빈도가 떨어지는 데이터들을 Glacier Deep Archive에 저장합니다.1달 정도의 ..