'딥러닝' 검색 분석 결과

분석 대시보드

새 검색 또는 수정

요약 통계

총 스레드 수
6
총 좋아요
519
총 리포스트
99

검색 결과 스레드 (점수 순 정렬)

로그인 필요

콘텐츠를 보려면 로그인이 필요합니다

로그인하고 원하는 스레드 정보를 분석해보세요.

1위
qqsikikim99
2025년 01월 31일
점수
618

GPT가 뽑은 ‘인류 역사상 가장 중요한 알고리즘 TOP 10’ 10위: 역전파(Backpropagation) 알고리즘 다층신경망을 학습시키는 알고리즘으로, 딥러닝 붐을 일으킨 핵심 기술 9위: 동적 프로그래밍(Dynamic Programming) 기법 복잡한 최적화 문제를 하위 단계로 나누어서 해결하는 기법. 알고리즘 설계에 지대한 영향. 8위: 다익스트라 알고리즘 (Dijkstra’s Algorithm) 그래프에서 출발 노드부터 다른 노드까지의 최단 경로를 찾아내는 알고리즘. 네트워크 라우팅, 지도앱 등에 사용됨. 7위: 페이지랭크 (PageRank) 구글 웹에서 페이지 중요도를 측정하기 위해 개발된 분석 알고리즘. 인터넷 검색 혁명을 일으킴. 6위: 고속푸리에변환 (FFT) 푸리에변환을 기존보다 빠르게(O(nlogn)) 수행하는 알고리즘. 신호처리, 통신 등 디지털분야에 지대한 영향

2위
ai_tap_tap
2025년 02월 16일
점수
547

🍎 [무료 공개] MIT 딥러닝 바이블! "Understanding Deep Learning" 핵심 자료 총정리 MIT 출판사에서 나온 "Understanding Deep Learning"(저자 Simon J.D. Prince) 강의자료와 학습 자료가 무료로 공개됐어! 541페이지에 달하는 이 책은 딥러닝 기초부터 최신 트렌드까지 모두 다루고 있어. Python 노트북, 그림 자료, 슬라이드까지 풀세트 제공이라 혼자 공부하기에도 딱이야! 📚 제공 자료 1. PDF 무료 배포 – 2024년 11월 21일 최신판 공개 2. 비디오 강의 – 챕터 1~12까지 강의 영상 제공 (Tamer Elsayed, Qatar University) 3. 코딩 연습 – 68개 이상 파이썬 노트북, Colab 연동 4. 슬라이드 & 그림 자료 – PPTX, PDF, SVG 포맷으로 챕터별 제공 👇👇 마지막에 링크

3위
chanu_2025
2025년 01월 29일
점수
311

[AI 에 꼭 필요한 수학 2] 저번 글에 이어 AI를 배우는 데 필수적인 대학 수학 과목들을 소개합니다. 과거보다 AI 학습의 필요성이 커지면서, 관련된 수학 개념을 잘 이해하는 것이 중요해졌습니다. 아래는 AI에 필요한 핵심 수학 과목과 그 이유입니다. 3️⃣ 확률과 통계 (Probability & Statistics) 머신러닝의 본질은 데이터를 기반으로 패턴을 학습하는 것이므로, 확률 분포, 조건부 확률, 베이즈 정리, 기대값, 분산 등을 이해하는 것이 중요합니다. 추천 학습: Probability and Statistics for Engineers (Sheldon Ross). 4️⃣ 최적화 이론 (Optimization) 딥러닝의 학습 과정은 최적화를 통해 이루어지므로, 볼록 최적화(convex optimization), 라그랑지 승수법 등을 배우면 실질적으로 큰 도움이 됩니다. 추천 학습: Boyd의 Convex Optimization 강의(Stanford).

uuk_kim
2024년 12월 10일
점수
194

딥러닝 하는 다른 중소기업들은 gpu 어케 구해? a100같은거 대표가 대략 알아본거 같은데 못사주겠다는데... 4080갖고 해보래...

aicharacter_friend
2025년 02월 13일
점수
98

딥러닝 입문할 때 읽었던 책 제목처럼 설명과 구현을 바닥부터 차근차근 쌓아가면서, 딥러닝 개념을 스스로 떠올릴 수 있을 정도로 단련했던 기억이 난다. 그런데 이게 2·3·4·5권까지 있었네? 이제야 알았다 ㅋㅋㅋ 꼭 읽어봐야겠다. 딥러닝을 처음 시작하는 사람, 혹은 프레임워크의 고수준 API로만 구현해본 개발자라면 추천하고 싶다. 스친들도 도움 많이 됐던 책이나 자료 있으면 추천해줄 수 있을까?

byeongki_j
26일 전
점수
96

[🎲 딥러닝 성능, 시드빨일 수도…?] 모델 학습할 때 재현성 고정을 위해서 랜덤시드 고정하는 경우 종종 있지?🙋🏻‍♂️ 근데 그 숫자 하나로 성능이 1-2% 달라진다면? 🎰 (1-2%면 ‘유의미한 개선‘이잖아) 📌 논문 제목도 이래: “torch.manual_seed(3407) is all you need” 시드 1만개로 성능차이를 테스트했는데, 👉CIFAR-10에서 정확도 차이 최대 1.8% 👉ImageNet도 0.5% 이상 차이 났대! 2010년대에 모델 학습에 설명할 수 없는 “손 맛”이라고 부르던 영역이 있었는데. 이런거 아니었을까?🤔 🔗 https://arxiv.org/abs/2109.08203v1