SlideShare ist ein Scribd-Unternehmen logo
1 von 71
Downloaden Sie, um offline zu lesen
BigQuery
with AppEngine
LezhinEntertainment
GDG Korea Cloud
judeKim
2015-01-27
Speaker
• - 레진엔터테인먼트 서버개발자
• - GDG Korea Cloud 운영자
• - Facebook Korea Docker 

User Group 운영자
about BigQuery?
BigQuery?
• Big Data를 실시간으로 분석할 수 있는 플랫폼
• Google I/O 2010 발표
Goal of BigQuery in Google I/O 2012
• Perform a 1TB table scan in 1 second

Parallelize Parallelize Parallelize!
• Reading 1 TB / second from disk - 10k+ disks
• Processing 1TB / sec - 5k processors
Goal of BigQuery in Google I/O 2012
• Perform a 1TB table scan in 1 second

Parallelize Parallelize Parallelize!
• Reading 1 TB / second from disk - 10k+ disks
• Processing 1TB / sec - 5k processors
Goal of BigQuery in Google I/O 2012
• Perform a 1TB table scan in 1 second

Parallelize Parallelize Parallelize!
• Reading 1 TB / second from disk - 10k+ disks
• Processing 1TB / sec - 5k processors
Goal of BigQuery in Google I/O 2012
• Perform a 1TB table scan in 1 second

Parallelize Parallelize Parallelize!
• Reading 1 TB / second from disk - 10k+ disks
• Processing 1TB / sec - 5k processors
BigQuery from Dremel
• BigQuery as a publicly available service for any business
or developer to use
• REST API
• CLI ( command line interface )
• Web UI
• ACL ( access control )
• Data schema management and the integration with Google
Cloud Storage.
Dremel
• Analysis of crawled web documents
• Tracking install data for applications in the Android Market
• Crash reporting for Google products
• OCR results from Google Books
• Spam analysis
• Debugging of map tiles on Google Maps
• Tablet migrations in managed Bigtable instances
• Results of tests run on Google’s distributed build system
• Disk I/O statistics for hundreds of thousands of disks
• Resource monitoring for jobs run in Google’s data centers
• Symbols and dependencies in Google’s codebase
Dremel
• Columnar Storage
Dremel
• Tree architecture
https://cloud.google.com/files/BigQueryTechnicalWP.pdf
BigQuery vs MapReduce
Differences
• Dremel( BigQuery ) is designed as an interactive data
analysis tool for large datasets ( not only programmer )
• MapReduce is designed as a programming framework
to batch process large datasets ( only programmer )
Differences
Key Differences BigQuery MapReduce
What is it? Query service for large datasets
Programming model for processing large
datasets
Common use
cases
Ad hoc and trial-and-error
interactive query of large dataset for
quick analysis and troubleshooting
Batch processing of large dataset for time-
consuming data conversion or aggregation
Very fast
response
Yes ( ~ 10 secs ) No ( takes minutes - days )
Easy to use Yes No ( requires Hive / Tenzing )
Programming
complex data
processing logic
No Yes
Updating
exsiting data
No Yes
BigQuery vs MapReduce
• BigQuery - 구조화된 데이터를 SQL을 사용해서 실시간으
로 다루기 위해 디자인되었으며, CSV나 JSON을 통해 데이
터를 import할 수 있으며, 등록된 데이터를 수정할 수 없다.
• MapReduce - 구조화되지 않은 데이터를 프로그램적으로
처리하는데 더 적합하며, 어떠한 데이터나 복잡한 로직도 적
용 가능. 비실시간 데이터를 배치 작업을 통해서 결과를 얻어
오는데 적합하다.
BigQuery 용어
• Project - BigQuery 데이터의 컨테이너로 결제가 Project단
위로 이루어짐. ACL 로 Project에서 제어합니다.
• Dataset - Dataset은 하나 이상의 Table 모음 ( like
Database )
• Table - 일반적인 2차원 데이터 저장 묶음
• Job - Job은 데이터 쿼리, import, export, Table간 데이터
복사와 같은 장기 실행 Job을 관리하는데 사용
BigQuery 특징
• 오직 CR( Create and Read ) 만 가능 

( 데이터의 입력 및 읽기만 가능 )
• 삭제 단위는 최소 Table 단위
• 제한된 Join 지원
• 스키마
• Nested 테이블 구조 지원 ( Only JSON schema )
• No index
BigQuery 특징
• PaaS 의 장점을 그대로 계승
• 초기 투자 비용 없음
• 사용한 만큼 비용 지불
• 고급 시스템 운영 인력이 별도로 필요하지 않음
• 이만큼 더 빠르게 만들기 쉽지 않음 ( 몇십억 rows - 수초 이내 )
• 조단위의 레코드 지원 및 테라바이트 크기의 데이터 지원
• SQL 지원으로 편리하며 익숙함
Limitations
Limitation - Query
• 200GB의 동시 Query + 무제한 크기의 추가 Query 1개

최대 20개의 동시 Query
• 일일 제한 : 20K Query
• 최대 쿼리 길이 : 10KB ( SQL )
• 최대 응답 크기 : 64MB
Limitation - Import
• 분당 2회
• 일일 1,000회 요청 ( 실패 포함 )
• 요청당 import 최대 파일 수 500개
• 파일당 최대 import 크기 4GB
• Job당 최대 import 크기 100GB
Limitation - Export
• 분당 2회
• 일일 50회
Price
가격정책
• 저장
• $0.12 ( GB / 월 )
• 최대 2TB
• 쿼리
• $0.035( 처리되는 GB당 ) - 최소 1MB
• 일일 20K 쿼리 ( QPD )
• 일일 20TB 데이터 처리
쿼리 비용 계산방법
• 샘플 Table - Wikipedia
• Table Size : 35.7GB
• Rows : 313,797,035
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 1
SELECT id FROM [publicdata:samples.wikipedia];
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 1
SELECT id FROM [publicdata:samples.wikipedia];
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 1
SELECT id FROM [publicdata:samples.wikipedia];
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 2
SELECT id FROM [publicdata:samples.wikipedia] LIMIT 100;
Query 3
SELECT id FROM [publicdata:samples.wikipedia] WHERE contributor_username LIKE ‘K%’ LIMIT 100;
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 2
SELECT id FROM [publicdata:samples.wikipedia] LIMIT 100;
Query 3
SELECT id FROM [publicdata:samples.wikipedia] WHERE contributor_username LIKE ‘K%’ LIMIT 100;
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 2
SELECT id FROM [publicdata:samples.wikipedia] LIMIT 100;
Query 3
SELECT id FROM [publicdata:samples.wikipedia] WHERE contributor_username LIKE ‘K%’ LIMIT 100;
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 2
SELECT id FROM [publicdata:samples.wikipedia] LIMIT 100;
Query 3
SELECT id FROM [publicdata:samples.wikipedia] WHERE contributor_username LIKE ‘K%’ LIMIT 100;
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 4
SELECT contributor_username, count(*) FROM [publicdata:samples.wikipedia] WHERE
contributor_username LIKE 'K%' GROUP BY contributor_username;
쿼리 비용 계산방법
title id language revision_id contributor_username timstamp
Size
(GB)
6.79 2.34 0.599 2.34 2.49 2.34
Type string integer string integer integer integer
Query 4
SELECT contributor_username, count(*) FROM [publicdata:samples.wikipedia] WHERE
contributor_username LIKE 'K%' GROUP BY contributor_username;
쿼리 비용 계산방법
Query 4
SELECT contributor_username, count(*) FROM [publicdata:samples.wikipedia] WHERE
contributor_username LIKE 'K%' GROUP BY contributor_username;
쿼리 비용 계산방법
Query 4
SELECT contributor_username, count(*) FROM [publicdata:samples.wikipedia] WHERE
contributor_username LIKE 'K%' GROUP BY contributor_username;
쿼리 비용 계산방법
Query 4
SELECT contributor_username, count(*) FROM [publicdata:samples.wikipedia] WHERE
contributor_username LIKE 'K%' GROUP BY contributor_username;
위의 내용을 토대로 정리하면,
컬럼기반의 스토리지 특성상 컬럼의 사이즈를 기준으로 사용하는 컬럼의 용량만큼 과금된다.
( 다만, order by 시 사용되는 컬럼은 과금되지 않는 것으로 확인됩니다.
아마도 구조상 정렬없이 진행되는 건에 대한 데이터 일관성을 유지시켜줄 수 없는
구조상의 한계에 의한 것이 아닌가 조심스레 예상해봅니다. )
* 질의를 신경써서 구성해야 하며, 데이터 구성에 기존의 데이터에서 인덱스화 시켜야 

하는 것들은 마찬가지로 데이터 용량을 최소하는 방향 

( 인덱스를 가볍게 만들 수 있는 )으로 설계
예상비용
* 가정
- 용량 변화 없음
* 비용 - 지금까지 질의한 4번의 쿼리
A. 저장비용
=> 35.7GB * 0.12 = $4.284 ( 약 4,700원 )
B. 질의 비용
=> 2.49 * 0.035 + 2.34 * 0.035 + 4.82 + 2.49 * 0.035 = $0.4249 ( 약 460원 )
비용합계( A + B ) => 4700 + 460 = 5,160원
Transaction DB 구축
목적 및 제약사항
• AppEngine의 로그를 조회하는 것이 한계가 있어 고객응대나 간헐적인 오
류에 대한 패턴을 분석하기에는 부족

(This application stores up to 1000 GBytes of logs storage or 90 days of logs.)
• 계획되지 않은 통계 데이터 요청하는 경우가 발생
• 카운터 API를 생성하는 것과 같은 별도의 작업은 여러가지 정황상 불가능
• 서비스가 활성화됨에 따라 로그 로테이션 주기가 지속적으로 짧아짐
• 별도의 시스템을 운영하는 경우는 최소화 

(AppEngine의 선택한 장점이 퇴색됨)
• 서비스에 영향 최소화
Main module
Plan
LogSystem
AppEngine
Compute
Instance
BigQueryCloudStorageLogger
Module
로그 정의
• 언제(A) 사용자(B)들이 무슨 플랫폼(C)을 사용하여 무슨 종류의 요
청(D)을 하는지?
• 요청후 받아가는 결과(E)는 무엇이며, 내부 처리시간(F)을 얼마인가?
• A - date
• B - user_id, ip_address
• C - os, browser
• D - method, query, path
• E - response_code, response body
• F - duration
스키마 정의
[{"name":"dt","type":"integer"},
{"name":"cl","type":"RECORD","fields":
[{"name":"uid","type":"STRING"},{"name":"ip","type":"STRING"},
{"name":"os","type":"RECORD","fields":
[{"name":"f","type":"STRING"},{"name":"v","type":"STRING"}]},
{"name":"br","type":"RECORD","fields":[{"name":"f","type":"STRING"},
{"name":"v","type":"STRING"}]}]},
{"name":"rq","type":"RECORD","fields":
[{"name":"m","type":"STRING"},{"name":"q","type":"STRING"},
{"name":"p","type":"STRING"},
{"name":"h","type":"RECORD","mode":"REPEATED","fields":
[{"name":"k","type":"STRING"},{"name":"v","type":"STRING"}]}]},
{"name":"rp","type":"RECORD","fields":
[{"name":"c","type":"INTEGER"},{"name":"b","type":"STRING"},
{"name":"d","type":"STRING"}]}]
스키마 정의
[{"name":"dt","type":"integer"},
{"name":"cl","type":"RECORD","fields":
[{"name":"uid","type":"STRING"},{"name":"ip","type":"STRING"},
{"name":"os","type":"RECORD","fields":
[{"name":"f","type":"STRING"},{"name":"v","type":"STRING"}]},
{"name":"br","type":"RECORD","fields":[{"name":"f","type":"STRING"},
{"name":"v","type":"STRING"}]}]},
{"name":"rq","type":"RECORD","fields":
[{"name":"m","type":"STRING"},{"name":"q","type":"STRING"},
{"name":"p","type":"STRING"},
{"name":"h","type":"RECORD","mode":"REPEATED","fields":
[{"name":"k","type":"STRING"},{"name":"v","type":"STRING"}]}]},
{"name":"rp","type":"RECORD","fields":
[{"name":"c","type":"INTEGER"},{"name":"b","type":"STRING"},
{"name":"d","type":"STRING"}]}]
https://developers.google.com/bigquery/docs/developers_guide?hl=ko#tables
스키마 정의
[{"name":"dt","type":"integer"},
{"name":"cl","type":"RECORD","fields":
[{"name":"uid","type":"STRING"},{"name":"ip","type":"STRING"},
{"name":"os","type":"RECORD","fields":
[{"name":"f","type":"STRING"},{"name":"v","type":"STRING"}]},
{"name":"br","type":"RECORD","fields":[{"name":"f","type":"STRING"},
{"name":"v","type":"STRING"}]}]},
{"name":"rq","type":"RECORD","fields":
[{"name":"m","type":"STRING"},{"name":"q","type":"STRING"},
{"name":"p","type":"STRING"},
{"name":"h","type":"RECORD","mode":"REPEATED","fields":
[{"name":"k","type":"STRING"},{"name":"v","type":"STRING"}]}]},
{"name":"rp","type":"RECORD","fields":
[{"name":"c","type":"INTEGER"},{"name":"b","type":"STRING"},
{"name":"d","type":"STRING"}]}]
https://developers.google.com/bigquery/docs/developers_guide?hl=ko#tables
https://cloud.google.com/bigquery/docs/data#nested
BigQuery CloudStorage 신청
• 기본적으로 Google Cloud Storage 는 신청되어 있음
• BigQuery API를 활성화 하면 바로 사용 가능
CloudStorage Bucket 생성
• bucket ( 일종의 folder 개념 ) 을 생성
• 구성상 다른 AppEngine 모듈 및 ComputeEngine에서 접근
할 수 있도록 권한 수정
• [project-id]@appspot.gserviceaccount.com
CloudStorage Bucket 생성
• bucket ( 일종의 folder 개념 ) 을 생성
• 구성상 다른 AppEngine 모듈 및 ComputeEngine에서 접근
할 수 있도록 권한 수정
• [project-id]@appspot.gserviceaccount.com
CloudStorage Bucket 생성
• bucket ( 일종의 folder 개념 ) 을 생성
• 구성상 다른 AppEngine 모듈 및 ComputeEngine에서 접근
할 수 있도록 권한 수정
• [project-id]@appspot.gserviceaccount.com
BigQuery Dataset 생성
• dataset ( RDBMS의 Database ) 를 생성
• 권한은 BigQuery를 접근하는 google compute engine이
동일한 project 이어서 별다른 설정이 필요하지 않음
BigQuery Dataset 생성
• dataset ( RDBMS의 Database ) 를 생성
• 권한은 BigQuery를 접근하는 google compute engine이
동일한 project 이어서 별다른 설정이 필요하지 않음
로그 입력 테스트
• Google Cloud SDK를 설치 및 project 설정 진행

https://cloud.google.com/sdk/
• import 시에는 반드시 gz 압축은 필수, —nosync 옵션도 필수
# bq 명령어 : https://developers.google.com/bigquery/docs/cli_tool?hl=ko
Log 데이터 생성 script
• https://gist.github.com/judeKim/2abc98d05ecc5c2a9d17
PHP
BigQuery에 질의하기
• BigQuery 콘솔에 접속 

( https://bigquery.cloud.google.com/queries/[project_id] )
BigQuery에 질의하기
• BigQuery 콘솔에 접속 

( https://bigquery.cloud.google.com/queries/[project_id] )
BigQuery에 질의하기
• BigQuery 콘솔에 접속 

( https://bigquery.cloud.google.com/queries/[project_id] )
BigQuery에 질의하기
• BigQuery 콘솔에 질의하기
BigQuery에 질의하기
• BigQuery 콘솔에 질의하기
BigQuery에 질의하기
• BigQuery 콘솔에 질의하기
BigQuery에 질의하기
• BigQuery 콘솔에 질의하기
BigQuery에 질의하기
• BigQuery 콘솔에 질의하기
BigQuery에 질의하기
• BigQuery 콘솔에 질의하기
BigQuery에 질의하기 - Join
• 소규모 조인을 지원 - 테이블이 압축했을때 8MB이하일때 가능

( 8MB 제한은 향후 개선될 수 있음 )
• INNER 및 LEFT OUTER JOIN 을 지원
BigQuery에 질의하기
• SELECT
• FROM
• JOIN
• WHERE
• HAVING
• GROUP BY
• ORDER BY
• LIMIT
• 집계 함수
• 산술 및 수학 함수
• 비트함수
• 캐스팅 함수
• 비교 함수
• IP 함수
• 논리 연산자 함수
• 정규 표현식 함수
• 문자열 함수
• 타임스탬프 함수
• 기타 함수
Data 내보내기
A. 질의한 결과의 행이 16,000개 이하일 경우 CSV로 저장
B. 결과를 또 하나의 BigQuery 테이블로 저장
C. Google Cloud Storage로 분할 파일 저장
https://cloud.google.com/bigquery/exporting-data-from-bigquery?hl=ko
Conclusion
BigQuery는?
• 저장 인프라의 제약 사항에 대해서 신경쓰지 않고 마구 집어 넣
어놓고 질의해보기는 괜찮다.
• 비용을 생각한다면 몇가지 최적화 및 코드화 처리는 필수적이다.
• 구글 클라우드 플랫폼을 사용하고 있지 않다면, 다소 불편할 수
있다.
• 통계화 진행하기 위한 중간 데이터 저장소로 사용하는 것도 나쁘
지 않다.
• 하둡 운영할 자신이 없다면 BigQuery를 선택해보는 것도 좋다.
BigQuery는?
• 저장 인프라의 제약 사항에 대해서 신경쓰지 않고 마구 집어 넣
어놓고 질의해보기는 괜찮다.
• 비용을 생각한다면 몇가지 최적화 및 코드화 처리는 필수적이다.
• 구글 클라우드 플랫폼을 사용하고 있지 않다면, 다소 불편할 수
있다.
• 통계화 진행하기 위한 중간 데이터 저장소로 사용하는 것도 나쁘
지 않다.
• 하둡 운영할 자신이 없다면 BigQuery를 선택해보는 것도 좋다.
감사합니다.
References
• https://developers.google.com/bigquery/?hl=ko
• https://cloud.google.com/files/BigQueryTechnicalWP.pdf
• https://cloud.google.com/bigquery/what-is-bigquery?hl=ko
• https://docs.google.com/presentation/d/
1sqOY7D8k4qzPaAy4X70rY3F6zUx8bEA4euTjJ0MlUeY/view?
pli=1#slide=id.p18

Weitere ähnliche Inhalte

Was ist angesagt?

Source To URL Without Dockerfile
Source To URL Without DockerfileSource To URL Without Dockerfile
Source To URL Without DockerfileWon-Chon Jung
 
파이어베이스 네이버 밋업발표
파이어베이스 네이버 밋업발표파이어베이스 네이버 밋업발표
파이어베이스 네이버 밋업발표NAVER D2
 
[243]kaleido 노현걸
[243]kaleido 노현걸[243]kaleido 노현걸
[243]kaleido 노현걸NAVER D2
 
docker on GCE ( JIRA & Confluence ) - GDG Korea Cloud
docker on GCE ( JIRA & Confluence ) - GDG Korea Clouddocker on GCE ( JIRA & Confluence ) - GDG Korea Cloud
docker on GCE ( JIRA & Confluence ) - GDG Korea CloudJude Kim
 
[211] HBase 기반 검색 데이터 저장소 (공개용)
[211] HBase 기반 검색 데이터 저장소 (공개용)[211] HBase 기반 검색 데이터 저장소 (공개용)
[211] HBase 기반 검색 데이터 저장소 (공개용)NAVER D2
 
카카오에서의 Trove 운영사례
카카오에서의 Trove 운영사례카카오에서의 Trove 운영사례
카카오에서의 Trove 운영사례Won-Chon Jung
 
[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.
[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.
[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.NAVER D2
 
Krnet2018 kakao container cloud dkos
Krnet2018 kakao container cloud dkosKrnet2018 kakao container cloud dkos
Krnet2018 kakao container cloud dkosWon-Chon Jung
 
AWS 환경에서 MySQL Infra 설계하기-2부.본론
AWS 환경에서 MySQL Infra 설계하기-2부.본론AWS 환경에서 MySQL Infra 설계하기-2부.본론
AWS 환경에서 MySQL Infra 설계하기-2부.본론I Goo Lee
 
[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼
[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼
[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼NAVER D2
 
mongodb와 mysql의 CRUD 연산의 성능 비교
mongodb와 mysql의 CRUD 연산의 성능 비교mongodb와 mysql의 CRUD 연산의 성능 비교
mongodb와 mysql의 CRUD 연산의 성능 비교Woo Yeong Choi
 
분산저장시스템 개발에 대한 12가지 이야기
분산저장시스템 개발에 대한 12가지 이야기분산저장시스템 개발에 대한 12가지 이야기
분산저장시스템 개발에 대한 12가지 이야기NAVER D2
 
Quic을 이용한 네트워크 성능 개선
 Quic을 이용한 네트워크 성능 개선 Quic을 이용한 네트워크 성능 개선
Quic을 이용한 네트워크 성능 개선NAVER D2
 
[142]편광을 활용한6 dof 전현기
[142]편광을 활용한6 dof 전현기[142]편광을 활용한6 dof 전현기
[142]편광을 활용한6 dof 전현기NAVER D2
 
[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축
[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축
[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축Juhong Park
 
백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스
백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스
백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스NAVER D2
 
Apache kafka performance(throughput) - without data loss and guaranteeing dat...
Apache kafka performance(throughput) - without data loss and guaranteeing dat...Apache kafka performance(throughput) - without data loss and guaranteeing dat...
Apache kafka performance(throughput) - without data loss and guaranteeing dat...SANG WON PARK
 
what is_tabs_share
what is_tabs_sharewhat is_tabs_share
what is_tabs_shareNAVER D2
 
[244] 분산 환경에서 스트림과 배치 처리 통합 모델
[244] 분산 환경에서 스트림과 배치 처리 통합 모델[244] 분산 환경에서 스트림과 배치 처리 통합 모델
[244] 분산 환경에서 스트림과 배치 처리 통합 모델NAVER D2
 
형태소 분석기를 적용한 elasticsearch 운영
형태소 분석기를 적용한 elasticsearch 운영형태소 분석기를 적용한 elasticsearch 운영
형태소 분석기를 적용한 elasticsearch 운영창훈 정
 

Was ist angesagt? (20)

Source To URL Without Dockerfile
Source To URL Without DockerfileSource To URL Without Dockerfile
Source To URL Without Dockerfile
 
파이어베이스 네이버 밋업발표
파이어베이스 네이버 밋업발표파이어베이스 네이버 밋업발표
파이어베이스 네이버 밋업발표
 
[243]kaleido 노현걸
[243]kaleido 노현걸[243]kaleido 노현걸
[243]kaleido 노현걸
 
docker on GCE ( JIRA & Confluence ) - GDG Korea Cloud
docker on GCE ( JIRA & Confluence ) - GDG Korea Clouddocker on GCE ( JIRA & Confluence ) - GDG Korea Cloud
docker on GCE ( JIRA & Confluence ) - GDG Korea Cloud
 
[211] HBase 기반 검색 데이터 저장소 (공개용)
[211] HBase 기반 검색 데이터 저장소 (공개용)[211] HBase 기반 검색 데이터 저장소 (공개용)
[211] HBase 기반 검색 데이터 저장소 (공개용)
 
카카오에서의 Trove 운영사례
카카오에서의 Trove 운영사례카카오에서의 Trove 운영사례
카카오에서의 Trove 운영사례
 
[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.
[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.
[135] 오픈소스 데이터베이스, 은행 서비스에 첫발을 내밀다.
 
Krnet2018 kakao container cloud dkos
Krnet2018 kakao container cloud dkosKrnet2018 kakao container cloud dkos
Krnet2018 kakao container cloud dkos
 
AWS 환경에서 MySQL Infra 설계하기-2부.본론
AWS 환경에서 MySQL Infra 설계하기-2부.본론AWS 환경에서 MySQL Infra 설계하기-2부.본론
AWS 환경에서 MySQL Infra 설계하기-2부.본론
 
[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼
[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼
[224]nsml 상상하는 모든 것이 이루어지는 클라우드 머신러닝 플랫폼
 
mongodb와 mysql의 CRUD 연산의 성능 비교
mongodb와 mysql의 CRUD 연산의 성능 비교mongodb와 mysql의 CRUD 연산의 성능 비교
mongodb와 mysql의 CRUD 연산의 성능 비교
 
분산저장시스템 개발에 대한 12가지 이야기
분산저장시스템 개발에 대한 12가지 이야기분산저장시스템 개발에 대한 12가지 이야기
분산저장시스템 개발에 대한 12가지 이야기
 
Quic을 이용한 네트워크 성능 개선
 Quic을 이용한 네트워크 성능 개선 Quic을 이용한 네트워크 성능 개선
Quic을 이용한 네트워크 성능 개선
 
[142]편광을 활용한6 dof 전현기
[142]편광을 활용한6 dof 전현기[142]편광을 활용한6 dof 전현기
[142]편광을 활용한6 dof 전현기
 
[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축
[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축
[NDC 2018] Spark, Flintrock, Airflow 로 구현하는 탄력적이고 유연한 데이터 분산처리 자동화 인프라 구축
 
백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스
백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스
백억개의 로그를 모아 검색하고 분석하고 학습도 시켜보자 : 로기스
 
Apache kafka performance(throughput) - without data loss and guaranteeing dat...
Apache kafka performance(throughput) - without data loss and guaranteeing dat...Apache kafka performance(throughput) - without data loss and guaranteeing dat...
Apache kafka performance(throughput) - without data loss and guaranteeing dat...
 
what is_tabs_share
what is_tabs_sharewhat is_tabs_share
what is_tabs_share
 
[244] 분산 환경에서 스트림과 배치 처리 통합 모델
[244] 분산 환경에서 스트림과 배치 처리 통합 모델[244] 분산 환경에서 스트림과 배치 처리 통합 모델
[244] 분산 환경에서 스트림과 배치 처리 통합 모델
 
형태소 분석기를 적용한 elasticsearch 운영
형태소 분석기를 적용한 elasticsearch 운영형태소 분석기를 적용한 elasticsearch 운영
형태소 분석기를 적용한 elasticsearch 운영
 

Andere mochten auch

About docker in GDG Seoul
About docker in GDG SeoulAbout docker in GDG Seoul
About docker in GDG SeoulJude Kim
 
Docker at Deview 2013
Docker at Deview 2013Docker at Deview 2013
Docker at Deview 2013Jude Kim
 
Docker at Deview 2013
Docker at Deview 2013Docker at Deview 2013
Docker at Deview 2013Jude Kim
 
Mobile app security nov 2015
Mobile app security nov 2015 Mobile app security nov 2015
Mobile app security nov 2015 Chanjin Park
 
R과sql비교 퀵하게보기
R과sql비교 퀵하게보기R과sql비교 퀵하게보기
R과sql비교 퀵하게보기seung-hyun Park
 
몽고디비사용자교육2일차 v0.5
몽고디비사용자교육2일차 v0.5몽고디비사용자교육2일차 v0.5
몽고디비사용자교육2일차 v0.5seung-hyun Park
 
보안 위협과 악성코드 분석 기법
보안 위협과 악성코드 분석 기법보안 위협과 악성코드 분석 기법
보안 위협과 악성코드 분석 기법Youngjun Chang
 
OOPS in javascript
OOPS in javascriptOOPS in javascript
OOPS in javascriptVijaya Anand
 
Why javaScript?
Why javaScript?Why javaScript?
Why javaScript?Kim Hunmin
 
BeLAUNCH2014 x HACKATHON week 3
BeLAUNCH2014 x HACKATHON week 3BeLAUNCH2014 x HACKATHON week 3
BeLAUNCH2014 x HACKATHON week 3Chan Lee
 
미티어 리엑티비티 ( reactivity of meteor )
미티어 리엑티비티 ( reactivity of meteor ) 미티어 리엑티비티 ( reactivity of meteor )
미티어 리엑티비티 ( reactivity of meteor ) seung-hyun Park
 
Javascript and Web Performance
Javascript and Web PerformanceJavascript and Web Performance
Javascript and Web PerformanceJonathan Jeon
 
1. 미티어의 폴더구조
1. 미티어의 폴더구조1. 미티어의 폴더구조
1. 미티어의 폴더구조seung-hyun Park
 
Google Apps를 활용한 Smart Work 구축
Google Apps를 활용한 Smart Work 구축Google Apps를 활용한 Smart Work 구축
Google Apps를 활용한 Smart Work 구축선진 장
 
Meteor Korea DEV School 1st day
Meteor Korea DEV School 1st dayMeteor Korea DEV School 1st day
Meteor Korea DEV School 1st dayseung-hyun Park
 
142 리눅스와 모바일 day1-track4_2_v1.5
142 리눅스와 모바일 day1-track4_2_v1.5142 리눅스와 모바일 day1-track4_2_v1.5
142 리눅스와 모바일 day1-track4_2_v1.5NAVER D2
 

Andere mochten auch (20)

About docker in GDG Seoul
About docker in GDG SeoulAbout docker in GDG Seoul
About docker in GDG Seoul
 
Docker at Deview 2013
Docker at Deview 2013Docker at Deview 2013
Docker at Deview 2013
 
Docker at Deview 2013
Docker at Deview 2013Docker at Deview 2013
Docker at Deview 2013
 
Mobile app security nov 2015
Mobile app security nov 2015 Mobile app security nov 2015
Mobile app security nov 2015
 
R과sql비교 퀵하게보기
R과sql비교 퀵하게보기R과sql비교 퀵하게보기
R과sql비교 퀵하게보기
 
몽고디비사용자교육2일차 v0.5
몽고디비사용자교육2일차 v0.5몽고디비사용자교육2일차 v0.5
몽고디비사용자교육2일차 v0.5
 
보안 위협과 악성코드 분석 기법
보안 위협과 악성코드 분석 기법보안 위협과 악성코드 분석 기법
보안 위협과 악성코드 분석 기법
 
OOPS in javascript
OOPS in javascriptOOPS in javascript
OOPS in javascript
 
Why javaScript?
Why javaScript?Why javaScript?
Why javaScript?
 
BeLAUNCH2014 x HACKATHON week 3
BeLAUNCH2014 x HACKATHON week 3BeLAUNCH2014 x HACKATHON week 3
BeLAUNCH2014 x HACKATHON week 3
 
미티어 리엑티비티 ( reactivity of meteor )
미티어 리엑티비티 ( reactivity of meteor ) 미티어 리엑티비티 ( reactivity of meteor )
미티어 리엑티비티 ( reactivity of meteor )
 
Javascript and Web Performance
Javascript and Web PerformanceJavascript and Web Performance
Javascript and Web Performance
 
3. collection
3. collection3. collection
3. collection
 
1. 미티어의 폴더구조
1. 미티어의 폴더구조1. 미티어의 폴더구조
1. 미티어의 폴더구조
 
Google Apps를 활용한 Smart Work 구축
Google Apps를 활용한 Smart Work 구축Google Apps를 활용한 Smart Work 구축
Google Apps를 활용한 Smart Work 구축
 
5.router
5.router5.router
5.router
 
6.accounts
6.accounts6.accounts
6.accounts
 
Meteor Korea DEV School 1st day
Meteor Korea DEV School 1st dayMeteor Korea DEV School 1st day
Meteor Korea DEV School 1st day
 
4. publish / subscribe
4. publish / subscribe4. publish / subscribe
4. publish / subscribe
 
142 리눅스와 모바일 day1-track4_2_v1.5
142 리눅스와 모바일 day1-track4_2_v1.5142 리눅스와 모바일 day1-track4_2_v1.5
142 리눅스와 모바일 day1-track4_2_v1.5
 

Ähnlich wie Big query at GDG Korea Cloud meetup

Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드
Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드
Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드cranbe95
 
데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...
데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...
데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...Amazon Web Services Korea
 
AWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil Kim
AWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil KimAWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil Kim
AWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil KimAmazon Web Services Korea
 
Introduction to Apache Tajo
Introduction to Apache TajoIntroduction to Apache Tajo
Introduction to Apache TajoGruter
 
실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018
실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018
실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018Amazon Web Services Korea
 
[Pgday.Seoul 2018] replacing oracle with edb postgres
[Pgday.Seoul 2018] replacing oracle with edb postgres[Pgday.Seoul 2018] replacing oracle with edb postgres
[Pgday.Seoul 2018] replacing oracle with edb postgresPgDay.Seoul
 
AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017
AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017
AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017Amazon Web Services Korea
 
MariaDB 마이그레이션 - 네오클로바
MariaDB 마이그레이션 - 네오클로바MariaDB 마이그레이션 - 네오클로바
MariaDB 마이그레이션 - 네오클로바NeoClova
 
스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS
스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS
스타트업 사례로 본 로그 데이터 분석 : Tajo on AWSMatthew (정재화)
 
대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...
대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...
대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...Amazon Web Services Korea
 
대규모 데이터 처리 입문
대규모 데이터 처리 입문대규모 데이터 처리 입문
대규모 데이터 처리 입문Choonghyun Yang
 
SQream DB, GPU-accelerated data warehouse
SQream DB, GPU-accelerated data warehouseSQream DB, GPU-accelerated data warehouse
SQream DB, GPU-accelerated data warehouseNAVER Engineering
 
Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018
Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018
Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018Amazon Web Services Korea
 
효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...
효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...
효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...Amazon Web Services Korea
 
Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018
Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018
Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018Amazon Web Services Korea
 
[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...
[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...
[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...Amazon Web Services Korea
 
Object storage의 이해와 활용
Object storage의 이해와 활용Object storage의 이해와 활용
Object storage의 이해와 활용Seoro Kim
 
스타트업사례로 본 로그 데이터분석 : Tajo on AWS
스타트업사례로 본 로그 데이터분석 : Tajo on AWS스타트업사례로 본 로그 데이터분석 : Tajo on AWS
스타트업사례로 본 로그 데이터분석 : Tajo on AWSGruter
 

Ähnlich wie Big query at GDG Korea Cloud meetup (20)

Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드
Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드
Ndc2011 성능 향상을_위한_데이터베이스_아키텍쳐_구축_및_개발_가이드
 
데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...
데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...
데브시스터즈 데이터 레이크 구축 이야기 : Data Lake architecture case study (박주홍 데이터 분석 및 인프라 팀...
 
AWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil Kim
AWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil KimAWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil Kim
AWS Innovate: Best Practices for Migrating to Amazon DynamoDB - Sangpil Kim
 
Introduction to Apache Tajo
Introduction to Apache TajoIntroduction to Apache Tajo
Introduction to Apache Tajo
 
실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018
실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018
실전! AWS 기반 데이터베이스 마이그레이션::최홍식::AWS Summit Seoul 2018
 
[Pgday.Seoul 2018] replacing oracle with edb postgres
[Pgday.Seoul 2018] replacing oracle with edb postgres[Pgday.Seoul 2018] replacing oracle with edb postgres
[Pgday.Seoul 2018] replacing oracle with edb postgres
 
AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017
AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017
AWS를 통한 빅데이터 기반 비지니스 인텔리전스 구축- AWS Summit Seoul 2017
 
MariaDB 마이그레이션 - 네오클로바
MariaDB 마이그레이션 - 네오클로바MariaDB 마이그레이션 - 네오클로바
MariaDB 마이그레이션 - 네오클로바
 
Infiniflux introduction
Infiniflux introductionInfiniflux introduction
Infiniflux introduction
 
스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS
스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS
스타트업 사례로 본 로그 데이터 분석 : Tajo on AWS
 
대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...
대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...
대용량 데이터베이스의 클라우드 네이티브 DB로 전환 시 확인해야 하는 체크 포인트-김지훈, AWS Database Specialist SA...
 
대규모 데이터 처리 입문
대규모 데이터 처리 입문대규모 데이터 처리 입문
대규모 데이터 처리 입문
 
SQream DB, GPU-accelerated data warehouse
SQream DB, GPU-accelerated data warehouseSQream DB, GPU-accelerated data warehouse
SQream DB, GPU-accelerated data warehouse
 
Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018
Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018
Amazon Aurora 신규 서비스 알아보기::최유정::AWS Summit Seoul 2018
 
효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...
효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...
효과적인 NoSQL (Elasticahe / DynamoDB) 디자인 및 활용 방안 (최유정 & 최홍식, AWS 솔루션즈 아키텍트) :: ...
 
Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018
Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018
Amazon DynamoDB 기반 글로벌 서비스 개발 방법 및 사례::김준형::AWS Summit Seoul 2018
 
[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...
[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...
[Retail & CPG Day 2019] Amazon.com의 무중단, 대용량 DB패턴과 국내사례 (Lotte e-commerce) - ...
 
Object storage의 이해와 활용
Object storage의 이해와 활용Object storage의 이해와 활용
Object storage의 이해와 활용
 
AWS RDS, DYNAMO
AWS RDS, DYNAMOAWS RDS, DYNAMO
AWS RDS, DYNAMO
 
스타트업사례로 본 로그 데이터분석 : Tajo on AWS
스타트업사례로 본 로그 데이터분석 : Tajo on AWS스타트업사례로 본 로그 데이터분석 : Tajo on AWS
스타트업사례로 본 로그 데이터분석 : Tajo on AWS
 

Kürzlich hochgeladen

캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스
 
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionKim Daeun
 
[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and AdoptionSeung-chan Baeg
 
Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Wonjun Hwang
 
A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)Tae Young Lee
 
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'Hyundai Motor Group
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Kim Daeun
 

Kürzlich hochgeladen (7)

캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차캐드앤그래픽스 2024년 5월호 목차
캐드앤그래픽스 2024년 5월호 목차
 
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution DetectionMOODv2 : Masked Image Modeling for Out-of-Distribution Detection
MOODv2 : Masked Image Modeling for Out-of-Distribution Detection
 
[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption[Terra] Terra Money: Stability and Adoption
[Terra] Terra Money: Stability and Adoption
 
Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)Grid Layout (Kitworks Team Study 장현정 발표자료)
Grid Layout (Kitworks Team Study 장현정 발표자료)
 
A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)A future that integrates LLMs and LAMs (Symposium)
A future that integrates LLMs and LAMs (Symposium)
 
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
도심 하늘에서 시속 200km로 비행할 수 있는 미래 항공 모빌리티 'S-A2'
 
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
Continual Active Learning for Efficient Adaptation of Machine LearningModels ...
 

Big query at GDG Korea Cloud meetup