일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- DataFrame Spark
- spark explode
- LLM
- SparkSQL
- airflow
- dataframe
- 프로그래머스 파이썬
- Big Query
- 언어모델
- PySpark
- sparkdf
- 로컬 pyspark
- docker
- spark #스파크
- 도커오류
- 시각화
- Docker error
- ifkakao2020
- 빅쿼리 튜닝
- 빅쿼리
- 코테
- 데이터엔지니어링
- spark df
- 데이터 시각화
- pyspark오류
- 도커exec
- BigQuery
- 도커
- 태블로
- tableau
- Today
- Total
SOGM'S Data
[base] 내가 개인적으로 정리하는 중요 기초 논문 리스트 본문
1. Learning Deep Features for Discriminative Localization
Search | arXiv e-print repository
Showing 1–50 of 146 results for author: Torralba, A arXiv:2304.11470 [pdf, other] cs.CV cs.AI 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive Physics under Challenging Scenes Authors: Haotian Xue, Antonio Torralba, Joshua B. Tenenba
arxiv.org
- 작성일 기준 인용 수 8000회 이상
- 비전분야에서 Visualization에 대해 직관적으로 확인해볼 수 있는 논문
- class activation mapping 에 대한 설명. 네트워크내 GAP 이후 레이어를 다시 한 번 이전 featuremap과 weighted sum 해줌으로써 전체 이미지의 어떤 부분이 특히 activated 됐는지 확인.
2. EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Search | arXiv e-print repository
Showing 1–50 of 113 results for author: Le, Q V arXiv:2302.06675 [pdf, other] cs.LG cs.AI cs.CL cs.CV cs.NE Symbolic Discovery of Optimization Algorithms Authors: Xiangning Chen, Chen Liang, Da Huang, Esteban Real, Kaiyuan Wang, Yao Liu, Hieu Pham, X
arxiv.org
- 작성기준 인용수 12000회 이상
- 구글에서 cnn의 depth,width,image resolution의 compound scaling에 대한 논문.
-파라미터를 획기적으로 줄이면서 기존 모델들과 동등하거나 나은 성능을 줄 수 있음.
3. Neural Machine Translation by Jointly Learning to Align and Translate
Search | arXiv e-print repository
Showing 1–50 of 478 results for author: Bengio, Y arXiv:2302.10866 [pdf, other] cs.LG cs.CL Hyena Hierarchy: Towards Larger Convolutional Language Models Authors: Michael Poli, Stefano Massaroli, Eric Nguyen, Daniel Y. Fu, Tri Dao, Stephen Baccus, Yo
arxiv.org
- 작성일 기준 인용수 약 28000회
- Attention의 등장을 알리는 첫 논문 (바다나우 어텐션, 저자의 이름을 인용하여 만들어짐)
- 기계번역에서 seq2seq의 고정된 크기의 context vector의 한계를 극복. 매번 디코더 hiddenstate에서 encdoer의 입력벡터들과의 관계를 attention(주의,주목)함.
'About Data > AI Paper' 카테고리의 다른 글
[PaperReview]SimCSE: Simple Contrastive Learning of Sentence Embeddings (1) (작성중) (1) | 2024.01.08 |
---|---|
1) [논문리뷰] Collaborative Filtering for Implicit Feedback Datasets, IEEE (4) | 2020.11.02 |