'딥러닝' 검색 분석 결과
분석 대시보드
요약 통계
검색 결과 스레드 (점수 순 정렬)
콘텐츠를 보려면 로그인이 필요합니다
로그인하고 원하는 스레드 정보를 분석해보세요.
AI 공부는 이 순서대로 하세요 전부 YouTube에서 무료로 볼 수 있습니다 1. 초보 - Matthias Niessner 의 Introduction to Deep Learning (I2DL 2023) - 3Blue1Brown 선형대수학, 딥러닝 - Harvard CS50 컴퓨터 공학 기초 - First Principles of Computer Vision
[멋져 보이면 나도 해야 하는 인간 = 나] 1. 해외에서 일하는 게 멋져 보임 체코에서 6개월 동안 인턴 생활 이건 아니다 싶어 돌아와서 바로 한 학기 휴학 때림 2. 개발자가 멋져 보임 코딩/AI 공부 시작 (참고로 난 컴맹 비전공자 출신) 6개월 뒤 딥러닝 엔지니어로 취업 3. 연구실이 멋져 보임 6개월 뒤 대학원 입학, 원하던 연구실 출근 4. 학회에서 발표하는 연구자가 멋져 보임 해외 논문 3개/국내 학회 최우수 논문상 수상 (1저자 3편) 5. 넘 힘들어서 아무것도 안 멋져 보임 석사 3학기에 마치고 조기 졸업 그리고 지금은
🧵 너무 쉬운 AI 엔지니어 되는 방법 1. math & statistics (수학·통계) 2. python (파이썬) 3. classical ML (기본 머신러닝) 4. advanced ML (고급 머신러닝) 5. NLP (자연어 처리) 6. deep learning (딥러닝) 7. transformers (트랜스포머) 8. LangChain (랭체인) 9. LangGraph (랭그래프) 11. MCPS (멀티 컴포넌트 파이프라인 시스템) 12. finetuning (파인튜닝) 13. FastAPI (빠른 API 서버 프레임워크) 순서대로 하면 됩니닥 참 쉽죵~
데이터 사이언스에 대한 내 생각을 올렸더니 데이터나 주면서 말하라고 하는 분들이 많아 몇 군데 공유함. 데이터사이언스 [국내] 1. 공공데이터 포털: 다양한 공공 데이터셋을 제공 2. AI HUB: 대용량 데이터셋과 딥러닝 학습용 데이터를 제공 3. 서울 열린데이터광장: 서울시 관련 데이터를 제공 4. 국가통계포털 (KOSIS): 다양한 국가 통계 데이터를 제공 5. 한국은행 경제통계시스템: 경제 관련 데이터를 제공 6. 금융통계정보시스템: 금융 관련 데이터를 제공 👇
SLAM 신입 개발자 면접을 보는데, 논문에 ViT, PointNet 등 딥러닝 쪽을 많이 다뤄보셨다고 해서 이미지 프로세싱이나 이미지 임베딩 생성 과정을 물어봤는데, 사실상 답변을 하나도 못하셨음. (논문 퀄리티나 학벌도 상당하셨는데…) 펀더멘털을 물어본 내 잘못인가… 요즘은 다들 하이레벨 API만 가져다 쓰는 걸까… ORB-SLAM도 써봤다길래 멀티스레딩 동작 원리나 Covisibility 그래프 동작 방식을 물어봤는데, 이 역시 제대로 답하는 사람이 없음. (이런 걸 이해하려고 시도해본 사람 자체가 거의 없음…) 사실 이전에도 Vision/NLP AI 개발자들(경력 5년 차 정도)에게 펀더멘털 프로세싱이나 딥러닝 기본 과정을 물어보면, 제대로 답하는 사람을 한 번도 못 봤음… Transformer의 Attention 메커니즘이 대표적인 예.... 결국, 하이레벨 라이브러리만 사용하다 보면 기본 원리를 놓칠 수밖에 없는 건가 싶기도 함.
2. 신경망(Neural Networks)의 종류는 무엇인가? 답변 : 딥러닝에서 사용하는 신경망에는 여러 종류가 있음. 주요한 아키텍처는 다음과 같다. 1. 피드포워드 신경망 (Feedforward Neural Networks, FFNNs) 2. 합성곱 신경망 (Convolutional Neural Networks, CNNs) 3. 순환 신경망 (Recurrent Neural Networks, RNNs) 4. 장단기 메모리 네트워크 (Long Short-Term Memory Networks, LSTMs) 5. 게이트 순환 유닛 (Gated Recurrent Units, GRU) 6. 오토인코더 신경망 (Autoencoder Neural Networks) 7. 생성적 적대 신경망 (Generative Adversarial Networks, GANs) 8. 트랜스포머 (Transformers) 9. 딥 빌리프 네트워크 (Deep Belief Networks, DBNs)
[🎲 딥러닝 성능, 시드빨일 수도…?] 모델 학습할 때 재현성 고정을 위해서 랜덤시드 고정하는 경우 종종 있지?🙋🏻♂️ 근데 그 숫자 하나로 성능이 1-2% 달라진다면? 🎰 (1-2%면 ‘유의미한 개선‘이잖아) 📌 논문 제목도 이래: “torch.manual_seed(3407) is all you need” 시드 1만개로 성능차이를 테스트했는데, 👉CIFAR-10에서 정확도 차이 최대 1.8% 👉ImageNet도 0.5% 이상 차이 났대! 2010년대에 모델 학습에 설명할 수 없는 “손 맛”이라고 부르던 영역이 있었는데. 이런거 아니었을까?🤔 🔗 https://arxiv.org/abs/2109.08203v1
KAIST에서 딥러닝 논문만 읽던 내가 지금은 왜 마케팅 서적을 밤새 읽고 있을까? 교수님께 "졸업 후 뭐 할 거야?"라고 물어보셨을 때 "당연히 AI 연구자요"라고 답했던 게 2년 전. 그런데 지금 내 책상 위에는 '마케팅 불변의 법칙', 'Made to Stick' 같은 마케팅 책들이 쌓여있다. 연구실 동기들은 네이버, 카카오, 구글로 가는데 나는 왜 이 길을 선택했을까? 사실 처음엔 나도 확신이 없었다. 공학도가 마케팅을 한다는 게 말이 되나? 하지만 지금 생각해보면... 공대생의 관점에서 바라본 마케팅업계
웹 백엔드 개발자로 취업했는데 현재는 딥러닝, 웹 프론트, 웹 백엔드, 시스템 프로그래밍을 하고 있다. 커리어 망한거 맞나...