일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- spark explode
- 도커오류
- 데이터 시각화
- 빅쿼리
- 빅쿼리 튜닝
- sparkdf
- LLM
- 도커
- airflow
- docker
- dataframe
- SparkSQL
- 언어모델
- 도커exec
- Big Query
- 로컬 pyspark
- 프로그래머스 파이썬
- DataFrame Spark
- BigQuery
- pyspark오류
- spark #스파크
- tableau
- 코테
- 시각화
- 태블로
- 데이터엔지니어링
- spark df
- PySpark
- Docker error
- ifkakao2020
- Today
- Total
목록전체 글 (44)
SOGM'S Data
* 본 포스트는 SK T아카데미 아파치 스파크 입문 강의를 듣고 요약 정리한 내용입니다. Directed Acyclic Graph(DAG) dag 는 lineage라고 보면됨. 각각의node들은 데이터를 transform할때마다 생기는 rdd n개의 스테이지에서 m개의 태스크로 나뉘는 모습. 스테이지를 구분은 transformation은 같은 stage 로 묶임. reduce , shuffle , join의 경우 다른 stage로 구분됨. 태스크를 나누는 구분은 executer의 개수와 관련이 있다. 가용한 executer가 100개면 100개의 태스크로 나뉨. transformation - narrow vs wide Action은 마지막 단계 . dag가 시행되는 구간임. collect , count ..
* 본 포스트는 SK T아카데미 아파치 스파크 입문 강의를 듣고 요약 정리한 내용입니다. RDD: spark dataframe으로 잘 안쓰게 되었지만 스팤의 구성요소이다. 스팤 코어에는 rdd가 있음. transformation 하게되면 rdd가 변경함. map-reduce의 map작업. 로그마이닝 예제이다. 파일 읽고 -> 최초 rdd생성 errors라는 에러를 필터링하고 ->새로운 trasform Rdd생성 count() -> rdd action. foo와 bar가 몇개 들어가 있는지 수 세기. 실제 예제의 구조 hdfs파일 블럭단위로 나눠져있고 (블록3개). 실제 spark이 일할때는 action에서만 일함. 드라이버(서버)로 결과를 던져줌 참고로 엔지니어링에서 언어에 대한 참고. 강사님은 분석을 ..
* 본 포스트는 SK T아카데미 아파치 스파크 입문 강의를 듣고 요약 정리한 내용입니다. 1부 --- 부제: 빅데이터 프로세스 - 실시간 데이터를 위하여~ 빅데이터 프로세싱 3가지. 스파크 프로세스는 3번째 micro batch라고 생각하면됨. batch와 stream과의 중간. (아주작은 배치단위로 처리) 인스트림 (=네이티브스트림 )방식 source opertor : n개 동작, 데이터 수집 ex.카프카 sink operater: ex/엘라스틱서치 스파크 스트리밍의 마이크로 배치 예시 receiver나 sinkoperator는 카프가 등등 쓰이는 것은 똑같고 두 가지 차이는 앞단에 마이크로 배치로 데이터를 가지고와서 처리하는지 유무로 나뉨. Stream Processing Framework 종류 sp..
* 본 포스트는 SK T아카데미 아파치 스파크 입문 강의를 듣고 요약 정리한 내용입니다. HDFS : 하둡 분산 처리 파일 시스템 (Haddop distributed File System) 재연산시 신뢰성을 위해 카피 large file에 좋으나 small file과 low latency가 단점 masternode - slave node로 구성 master는 메타데이터 매니저 , slave 는 실제 storing data 온프레미스 환경에서 실제로 데이터노드 손실되는경우가 많다. 특히, 디스크 깨지는경우, 특정노드의 리카드, os fault 등등 HDFS는 이것을 막기 위해 분산 복사하여 카피 가지고 있음. 즉 랙에 중복이 없다. 하단 이미지 참조 MapReduce : 하둡 에코시스템의 간단한 프로그래밍..
나 같은 경우는 도커에서 exec -it 명령어로 컨테이너로 실행하여 접속하는 걸로 착각했는데 컨테이너 부팅이 안되어 방법들을 해매었다. 찾아보니 exec는 이미 실행중인 도커 컨테이너에만 사용되는 명령어였다. 만약 stop되어있는 도커 컨테이너를 run하기 위해선 docker run -it [컨테이너이름] 로 해당 컨테이너를 깨우고 아래 코드와 같이 exec -it 명령어로 실행중인 컨테이너 내의 대화형 bash 셸을 실행시키면 된다. docker exec -it [컨테이너이름] "bash" 또한 만약 도커 컨테이너를 run 하자마자 exit된다면, 기존에 있는 컨테이너를 삭제하고 다시 한 번 이미지를 가져와 도커 컨테이너를 새롭게 만들어주는 것도 방법이다. (저는 이렇게 되더라구요, 구글링해보니 방화..