- [INDEX] Linear Algebra with example
개념 체크 위주의 정리
Read More
- [Linear Algebra] 01. 일차 방정식과 행렬
개념 체크 위주의 정리
Read More
- Symbolic Chain-of-Thought Distillation: Small Models Can Also “Think” Step-by-Step 정리
Symbolic Chain-of-Thought Distillation: Small Models Can Also “Think” Step-by-Step
Read More
- (T5) Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer 정리
Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer paper review
Read More
- Specializing Multi-domain NMT via Penalizing Low Mutual Information 정리
Specializing Multi-domain NMT via Penalizing Low Mutual Information paper review
Read More
- Do Language Models Understand Measurements? 정리
Do Language Models Understand Measurements?
Read More
- Self-Attention with Relative Position Representations 정리
Self-Attention with Relative Position Representations paper review
Read More
- TRPO: Trust Region Policy Optimization 정리
Effective Approaches to Attention-based Neural Machine Translation paper review
Read More
- FileNotFoundError: [Errno 2] No such file or directory: '.data/wmt14/train.tok.clean.bpe.32000.en'
WMT14 Transformer 구현 오류
Read More
- Effective Approaches to Attention-based Neural Machine Translation 정리
Effective Approaches to Attention-based Neural Machine Translation paper review
Read More
- NVIDIA 한국 주요 DLI 앰배서더 네트워킹 세션 참석 후기
첫번째 한국 DLI 앰배서더 라운드테이블 세션에 참여후기
Read More
- [01] App: 안드로이드 앱 개발의 특징
컴포넌트와 리소스
Read More
- 2022 인공지능아이디어 페스티벌 우수상 후기
2022 인공지능아이디어 페스티벌 우수상 후기
Read More
- Word2vec: Distributed Representations of Words and Phrases and their Compositionality 정리
Distributed Representations of Words and Phrases and their Compositionality
Read More
- FastText: Bag of Tricks for Efficient Text Classification 정리
Bag of Tricks for Efficient Text Classification
Read More
- New Intent Discovery with Pre-training and Contrastive Learning 정리
Between words and characters:A Brief History of Open-Vocabulary Modeling and Tokenization in NLP
Read More
- Between words and characters: A Brief History of Open-Vocabulary Modeling and Tokenization in NLP 정리
Between words and characters:A Brief History of Open-Vocabulary Modeling and Tokenization in NLP
Read More
- Imputing Out-of-Vocabulary Embeddings with LOVE Makes Language Models Robust with Little Cost 정리
Imputing Out-of-Vocabulary Embeddings with LOVE Makes Language Models Robust with Little Cost
Read More
- An Empirical Study of Tokenization Strategies for Various Korean NLP Tasks 정리
An Empirical Study of Tokenization Strategies for Various Korean NLP Tasks
Read More
- FastText: Enriching Word Vectors with Subword Information 정리
Enriching Word Vectors with Subword Information, FastText
Read More
- IS REINFORCEMENT LEARNING (NOT) FOR NATURAL LANGUAGE PROCESSING?: BENCHMARKS, BASELINES, AND BUILDING BLOCKS FOR NATURAL LANGUAGE POLICY OPTIMIZATION 정리
IS REINFORCEMENT LEARNING (NOT) FOR NATURAL LANGUAGE PROCESSING?: BENCHMARKS, BASELINES, AND BUILDING BLOCKS FOR NATURAL LANGUAGE POLICY OPTIMIZATION paper review
Read More
- [11] [INDEX] Linear Algebra
Are You Ready To Learn Linear Algebra?
Read More
- [02] App: 안드로이드 앱 파일 구성 분석
프로젝트의 폴더 구성,모듈의 폴더 구성 알아보기(그래들 빌드 설정 파일, 메인 환경 파일, 리소스 폴더, 레이아웃 XML 파일, 메인 액티비티 파일
Read More
- [03] App: 안드로이드 앱 화면 구성 방법
화면을 구성하는 방법, 액티비티-뷰 구조, 액티비티 코드로 화면 구성하기(액티비티 코드로 작성하는 방법, 레이아웃 XML 파일로 작성하는 방법)
Read More
- [04] App: 안드로이드 앱 view class
뷰 클래스의 기본 구조(뷰 객체의 계층 구조, 레이아웃 중첩), 레이아웃 XML의 뷰를 코드에서 사용하기 , 뷰의 크기를 지정
Read More
- [05] App: 안드로이드 앱 view binding
뷰 바인딩, 뷰 바인딩 기법 설정, 바인딩 객체 얻기, binding 생략 속성
Read More
- NVIDIA DLI 강연 후기 in UNIVERSITY OF SEOUL
NVIDIA DLI 강연 후기 in UNIVERSITY OF SEOUL with TAVE
Read More
- NVIDIA DLI 강연 후기 with TAVE
NVIDIA DLI 강연 후기 with TAVE
Read More
- NVIDIA DLI 강연 후기 in UNIVERSITY OF SEOUL
NVIDIA DLI 강연 후기 in UNIVERSITY OF SEOUL with TAVE
Read More
- HCLT 논문 게재: An Empirical Study of Topic Classification for Korean Newspaper Headlines
HCLT 논문 게재 후기
Read More
- UXLA: A Robust Unsupervised Data Augmentation Framework for Zero-Resource Cross-Lingual NLP 정리
UXLA: A Robust Unsupervised Data Augmentation Framework for Zero-Resource Cross-Lingual NLP
Read More
- NVIDIA NLP TA 후기
NVIDIA NLP 강의 질의 응답자인 TA로 활동한 후기
Read More
- [04] GAN 정리
Generative Adversarial Network
Read More
- TAVE 기술블로그 빌드하기
4차 산업혁명 동아리 TAVE 기술블로그 빌드 후기
Read More
- [INDEX] Java_base
Are You Ready To Learn Java?
Read More
- [INDEX] Java_자료구조
Java 자료구조
Read More
- [00] [INDEX] Concept:BASE
자료구조, 알고리즘 기본개념/ 코딩테스트 준비사항, 시작 전 파이썬 기본 문법,코딩 스타일(파이썬 다운 방식/빅오(O, big-O)/ 자료형/ 리스트/ 딕셔너리 )
Read More
- [10] [INDEX] Concept_자료구조
Are You Ready To Learn?
Read More
- [20] [INDEX] Algorithm_sort
Are You Ready To Learn Algorithm sort?
Read More
- [30] [INDEX] Concept: Algorithm
Are You Ready To Learn Algorithm?
Read More
- NAVER boostcamp AI-Tech 지원후기
NAVER boostcamp AI-Tech
Read More
- NVIDIA DLI Embasser Challenge 후기
NVIDIA DLI Embasser Challenge 후기
Read More
- 한국외국어대학교 AI교육원 “여름방학 코딩테스트 대비 캠프” 중급반 후기
한국외국어대학교 AI교육원 “여름방학 코딩테스트 대비 캠프” 중급반 후기/코딩테스트 대비 프로그램 CODETREE 후기
Read More
- [02] GPT-1 정리
Improving Language Understanding by Generative Pre-Training
Read More
- [01] Concept_Algorithm(코테 전 꿀팁)
코딩테스트 보기 전 꿀팁
Read More
- [INDEX] R_basic concept
Are You Ready To Learn Basic concept of R?
Read More
- [00] [INDEX] Deep learning 1
Deep learning starting from the bottom 1
Read More
- [00] [INDEX] STATISTICS
Are You Ready To Learn STATISTICS?
Read More
- [00] [INDEX] Machine Learning
Are you ready to start Machine Learning
Read More
- [00] [INDEX] Kotlin
Learn App with Kotlin
Read More
- [10] [INDEX] Deep learning 2
Deep learning starting from the bottom 2
Read More
- [01] BERT 정리
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Read More
- [20] [INDEX] CS231N 정리
Deep learning starting from the bottom 2
Read More
- [00] Computer Network: 네트워크 관련 기초 용어
네트워크의 발전, 네트워크 기초 용어, 시스템 기초 용어
Read More
- [30] [INDEX] CS224N 정리
CS224n: Natural Language Processing with Deep Learning
Read More
- [02] Computer Network: 네트워크의 기능
네트워크의 기능, 계층 모델, 인터네트워킹 Internetworking, 프로토콜 Protocol
Read More
- [03] Computer Network: 네트워크의 주소 표현
네트워크 주소의 표현, 주소와 이름, 주소 정보의 관리
Read More
- [04] Computer Network: 계층 구조의 개념
계층 구조의 개념, 계층적 모듈 구조, 프로토콜 설계 시 고려 사
Read More
- [05] Computer Network: OSI 7계층
TCP / IP 모델,구현 환경(시스템 공간,사용자 공간), ARP와 RARP, ICMP
Read More
- [06] Computer Network: TCP / IP 모델
TCP / IP 모델,구현 환경(시스템 공간,사용자 공간), ARP와 RARP, ICMP
Read More
- [07] Computer Network: 프레임과 체크섬을 이용한 오류검출
프레임, 문자 프레임,프레임의 구조,문자 스터핑,비트 프레임, 비트 스터핑// 다항 코드, 오류 검출(패리티 비트,블록 검사),체크섬 예시
Read More
- [08] Computer Network: MAC 계층과 IEEE 802 시리즈
MAC 계층과 IEEE 802 시리즈, MAC 계층, LLC 계층/IEEE 802 시리즈, CSMA/CD, 토큰 버스, 토큰 링
Read More
- [09] Computer Network: 이더넷
이더넷 의미,이더넷과 신호 감지 기능(1-persistent CSMA, Non-persistent CSMA,p-persistent CSMA, CSMA/CD)/프레임 구조/LLC 프레임 캡슐화/허브와 스위치
Read More
- The Illustrated Transformer 정리
Attention is All You Need
Read More
- [011] Computer Network: IP 프로토콜(IPv4)
네트워크 계층의 기능, IP 프로토콜, IP 헤더 구조, DS/ECN, 패킷 분할, 주소 관련 필드, 기타 필드, 체크썸 계산하는 법
Read More
- [012] Computer Network: IP 프로토콜(IPv6)
IPv6 헤더 구조, 확장 헤더의 종류, Flow Label 필드/ IPv6 주소
Read More
- [013] Computer Network: TCP(1) 전송 계층의 기능
전송 계층의 기능, 전송 계층의 주요 기능(흐름 제어,오류 제어,분할과 병합,서비스 프리미티브), 전송 계층 설계 시 고려 사항(주소 표현, 멀티플렉싱, 연결 설정과 해제)
Read More
- [014] Computer Network: TCP 프로토콜
TCP/IP 프로토콜의 계층적인 구조, TCP 필요성/ TCP 헤더 구조(TCP 헤더의 필드, 헤더의 플래그 비트,혼잡 제어,캡슐화)/ 포트 번호
Read More
- [015] Computer Network: UDP 프로토콜
UDP 프로토콜,헤더 구조,UDP에서의 데이터그램 분실, 데이터그램 도착 순서 변경
Read More
- [017] Computer Network: 서버-클라이언트 프로그래밍
서버-클라이언트 프로그래밍, 연결형 서비스(TCP), 서버와 클라이언트의 동작
Read More
- [018] Computer Network: 웹 서비스
웹 서비스 개요, 클라이언트-서버 모델/ URL (Uniform Resource Locator)이란? 일반 사용자가 홈페이지를 만드는 법/ 클라이언트와 서버 사이의 데이터 전송 과정
Read More
- [019] Computer Network: HTTP
HTTP 의 요청과 응답, 비상태 연결, MIME 유사 메시지/ HTTP의 메시지 분류, Request Message, Response Message/ HTTP 의 동작 과정
Read More
- [00][INDEX] OpenCV 영상처리
OpenCV INDEX
Read More
- [INDEX] Python_base
Are You Ready To Learn Basic concept of Python
Read More
- [INDEX] Python_Library(numpy)
Are You Ready To Learn numpy?
Read More
- [INDEX] Python_Library(Pandas)
Are You Ready To Learn Basic concept of Python
Read More
- [01] Java_base
Java 환경세팅, 배울 준비하기
Read More
- [02] Java_base
Java 변수 선언, 기초 개념
Read More
- [03] Java_base
Java 사용자 입력 받기,
Read More
- [04] Java_base
Java 함수(Java if문, with문, for문, while문, do-while문)
Read More
- [05] Java_base
Java 1, 2차원
Read More
- [06] Java_base
Java 문자열 입력과 기능
Read More
- [07] Java_base
Java 사용자 정의함수
Read More
- [11] Java 데이터베이스,객체지향, 생정자, 접근권한설정
Java 자료구조,데이터베이스,객체지향, 생정자, 접근권한설정
Read More
- [13] Java Linked List 구현
Java Linked List 구현
Read More
- [14] Java inked List를 main클래스에서 사용
Java inked List를 main클래스에서 사용
Read More
- [15] Java 큐(queue) 구현
Java 큐(queue) 구현
Read More
- [15] Java_자료구조(해시테이블 개별 체이닝 Separate Chaining 자바 구현)
개별 체이닝 Separate Chaining class별 자바 구현/hash node/hash table class(기본 뼈대,키로 값을 찾는 것,해당 값을 검색하는 함수,충돌이 일어났을 때의 처리,insert에서 덮어 써서 값을 업데이트 할 때/hash main(데이터를 집어 넣음,데이터가 있는지 검색하는 법))
Read More
- [01] Python: 기본
파이썬 프롬프트, 첫 창 , 조건문 반복문, 함수, 주석, 저장 ,실행
Read More
- [02] Python: 숫자형
문제로 풀어보는 파이썬 숫자형 자료들! 정수, 실수, 16진수, 8진수, 더하기, 몫, 숫자형 활용
Read More
- [03] Python
Python Programming Fundamentals, Data Types 2
Read More
- [02] Python: 문자열(String) 자료형
문제로 풀어보는 파이썬 문자열 자료형: 이스케이프 코드, 문자열 연산 count,index,upper,lower,replace, 문자열 인덱싱, 문자열 슬라이싱/ 문자열 관련
Read More
- [04] Python
Variables and Functions
Read More
- [02] Python: 문자열(String) 포맷팅
파이썬 버전에 따라 변화해온 문자열 포맷팅의 모든 것
Read More
- [05] Python
What should we do with the input and output of the program?
Read More
- [06] Python
View Python Large
Read More
- [11] Python(Numpy)
Python with math
Read More
- [12] Python(Numpy)
View Python Large
Read More
- [21] Python(Pandas)
Start with Pnadas
Read More
- [22] Python(Pandas)
Pandas Data Frame and Series
Read More
- [23] Python(Pandas)
Pandas Data Frame and Series
Read More
- [24] Python(Pandas)
Data mapping
Read More
- [25] Python(Pandas)
Pandas data type
Read More
- [26] Python(Pandas)
Time Series Data
Read More
- [01] Deep learning 1: 딥러닝이란 무엇인가?
딥러닝의 정의, 딥러닝과 머신러닝의 차이, AI의 역사, 딥러닝의 혁명
Read More
- [01] STATISTICS: Defining and Collecting Data
개념부터 문제로 이해하는 Definition Of Some Terms,Primary Sources, Secondary Sources, POPULATION, SAMPLE/Structured Data (정형데이터), Unstructured Data (비정형 데이터) 차이/Nonprobability Sample/probability Sample (Simple Random, Systematic, Stratified, Cluster) ,After Collection It Is Often Helpful To Recode,Types of Sample
Read More
- [01] Deep learning 1: 퍼셉트론
퍼셉트론,단순한 논리회로(1층퍼셉트론)(NAND 게이트와 OR 게이트,AND 게이트,XOR 게이트),다층 퍼셉트론의 충돌 시
Read More
- [02] Concept(알고리즘 필수 함수_파이썬)
인덴트,네이밍 컨벤션(파이썬의 변수명),mypy,리스트 컴프리헨션(List Comprehension),제너레이터 Generator,enumerate,// 나눗셈 연산자,print,pass,locals
Read More
- [02] STATISTICS: Defining and Collecting Data
개념부터 문제로 이해하는 Categorical Data,Summary Table For One Variable (Bar Chart,pie chart,Pareto Chart)/Numerical Data,Ordered Array , Frequency Distributions and Cumulative Distributions(Histogram,polygon), Two Numerical Data (Time-Series Plot,Scatter Plot)
Read More
- [01] Machine Learning: 지도학습과 비지도 학습의 차이 알아보기
머신러닝의 여러가지 기초 개념과 용어, 지도학습, 비지도 학습의 차이
Read More
- [02] Deep learning 1: 신경망 구성 (활성화 함수)
신경망, 활성화 함수activation function, 계단 함수 step function,비선형 함수, 시그모이드 함수, 비선형 함수, 활성화 함수, 다차원 배열의 계산, 출력층 설계, 항등 함수 identity function,소프트맥스 함수 softmax function(소프트맥스 함수 구현 시 주의점,출력층의 뉴런 수 정하기)
Read More
- [03] Concept(주의사항, 구글 파이썬 스타일 가이드)
참고 시 좋은 자료,변수명과 주석,리스트 컴프리헨션 주의점,구글 파이썬 스타일 가이드,파이썬다운 방식(Pythonic Way)
Read More
- [02] Machine Learning: 이진분류, 다중분류, 다중레이블 분류, 다중 출력 분류 비교
이진분류, 다중분류, 다중레이블 분류, 다중 출력 분류 비교 후 구현하기
Read More
- [03] STATISTICS: Numerical Descriptive Measures 1 (수치적 기술 방법)
central tendency(Mean,Median,Mode), variation(Range, Sample Standard Deviation, Sample Variance,Coefficient of Variation,Z-Score),shape(Skewness, Kurtosis)
Read More
- [03] Deep learning 1: 신경망 학습 (손실 함수)
데이터 주도 학습,손실 함수(loss function),오차 제곱 합(sum of squares for error, SSE),교차 엔트로피 오차(cross entropy error, CEE), 미니배치
Read More
- [04] Deep learning 1: 신경망 학습 (경사법)
수치 미분,해석적 미분(analytic), 학습 알고리즘 구현하기/ 경사하강법,plateau, 플래토, 딥러닝의 전체 학습과정, 개요/ 오차역전법과 경사하강법의 관계
Read More
- [04] Concept_빅오(O, big-O)
빅오(O, big-O)의 개념과 빅오(O, big-O)별 해당 알고리즘, 상한과 최악,분할 상환 분석 Amortized Analysis,
Read More
- [03] Machine Learning: 선형 SVM
라지 마진 분류 large margin classification, 소프트 마진 분류 soft margin classification
Read More
- [04] STATISTICS: Numerical Descriptive Measures 2 (수치적 기술 방법)
Exploring Numerical Data(Quartile Measures)/sample 과 population의 평균, 분산/Two Measures Of The Relationship_ 공분산, 상관계수
Read More
- [05] Deep learning 1: 오차역전법(backpropagation)
오차역전법(backpropagation)을 위한 계산그래프 computational graph,활성화 함수 계층 역전파 구현[ReLU, Sigmoid 계층],Affine/Softmax 구현, 오차역전파법 구현
Read More
- [05] Concept(자료형 1_집합 set, 시퀀스 Sequence)
파이썬 자료형 심화 개념,숫자,bool,mapping, 집합 set, 시퀀스 Sequence 개본 개념부터
Read More
- [+] Deep learning 1: 경사 하강법 gradient descent method
경사 하강법 gradient descent method의 개념, 쓰임을 예를 통해서 쉽게 이해하기/ MSE(Mean Squared Error)/ 손실함수 쉽게
Read More
- [04] Machine Learning: 비선형 SVM
다항식 커널, 유사도 특성, 가우시안 RBF 커널
Read More
- [05] STATISTICS: Basic Probability
Basic Probability Concepts(Assessing Probability,EVENT,Probability,Exclusive Events,Computing)/Conditional Probabilities/PLUS/Bayes’ Theorem/Counting Rules
Read More
- [06] Deep learning 1:옵티마이저 (Optimizers)
딥러닝 학습관련 기술들/옵티마이저 (Optimizers){확률적 경사 하강법 SGD,모멘텀 Momentum,AdaGrad,Adam,RMSProp},어느 갱신 방법을 이용할 것인가
Read More
- [+] Deep learning 1: 신경망 가중치 초기값 설정법
가중치의 초깃값, 설정하면 안되는 초기값, 초기값을 0으로 설정/초기값 문제: 은닉층 활성화층 분포 불균형, 기울기 소실, 표현력 제한/각 활성화 함수 별 추천 초기값
Read More
- [+] Deep learning 1: 배치 정규화 Batch Normalization
배치 정규화 Batch Normalization,배치 정규화 알고리즘,배치 정규화 과정
Read More
- [+] Deep learning 1: 오버피팅과 해결법
오버피팅,가중치 감소(weight decay), 드롭아웃, 앙상블 학습(ensemble learning)
Read More
- [06] Concept(자료형 2_원시타입, 객체, 비교연산자)
원시 타입 Primitive Type/ 불변 객체, 가변 객체/ 비교 연산자 is와 ==/ 참고 자료구조, 자료형, 추상 자료형 차이
Read More
- [06] STATISTICS: Discrete Probability Distributions
문제와 영어 수학 용어로 이해하는 Discrete Variables 베르누이 분포 Bernoulli distribution, 이항분포, 포아송비Poisson Distributions
Read More
- [07] Deep learning 1: MNIST 데이터세트로 이미지 분류
MNIST 데이터세트로 이미지 분류 쉽게 이해하기
Read More
- [+] Deep learning 1: 미국 수화 데이터세트 이미지 분류 TEST
미국 수화 데이터세트 이미지 분류 정말 직접 구현해보기
Read More
- [07] Concept(리스트)
파이썬 리스트 심화 개념, 알고리즘에 적용
Read More
- [07] STATISTICS: The Normal Distribution
문제로 익히는 Continuous Probability Distribution, The Normal Distribution, The Standardized Norma, Finding Normal Probabilities
Read More
- [08] Concept(파이썬 딕셔너리 기본부터 심화, try 예외처리)
파이썬 딕셔너리 심화개념, 파이썬 try예외처리
Read More
- [08] STATISTICS: Sampling Distributions of the Mean
예시와 그림, 문제로 쉽게 알아보는 Sampling Distributions, Sampling Distributions of the Mean, Standard Error of the Mean, Central Limit Theorem
Read More
- [08] Deep learning 1: 합성곱 신경망(convolutional neural network, CNN)
합성곱 신경망(convolutional neural network, CNN) 전체 과정 세세하게 설명/ 합성곱 계층,특징 맵 (feature map),합성 곱 연산,합성곱 계층 구현, 풀링(pooling) 계층, 풀링계층 구현, CNN 구현, CNN 시각화하기
Read More
- [09] Concept(선형자료구조_collections.deque)
collections 모듈 deque 정의, 쓰는 이유, list와의 차이점, 매서드
Read More
- [09] STATISTICS: Sampling Distributions of the Proportion
예시와 그림, 문제로 쉽게 알아보는 Sampling Distributions, Sampling Distributions of the Mean, Standard Error of the Mean, Central Limit Theorem
Read More
- [08.5] Deep learning 1: 합성곱 신경망(convolutional neural network, CNN) 구현
합성곱 신경망(convolutional neural network, CNN) 전체 과정 실제로 구현해보기, CNN을 위한 이미지 변환 reshaping, 합성곱 모델 생성
Read More
- [010] Concept(탐색 알고리즘 1_선형 탐색)
- 선형탐색(Linear search), 순차탐색
Read More
- [10] STATISTICS: One-Sample Tests_Hypothesis & Z-Test
문제와 예시로 쉽게 배우는 Fundamentals of Hypothesis Testing: One-Sample Tests, The Null Hypothesis, $$H_0$$,The Alternative Hypothesis, $$H_1$$,The Hypothesis Testing Process,Critical Value approach,p-Value approach,Risks in Decision Making Using Hypothesis Testing
Read More
- [09] Deep learning 1: 데이터 증강 구현
데이터 증강 구현 DATA AUGMENTATION, CNN 개선, GENERARTE 도입 이유, 도입 구현
Read More
- [011] Concept(탐색 알고리즘 2_이진탐색(binary search)/bisect 모듈/ 버그)
이진탐색(binary search),bisect 모듈, 수도코드, 원리, 과정, 파이썬 이진구현(재귀, 반복, 이진검색 모듈, 이진검색을 사용하지 않는 index풀이), 자바구현/ 이진 알고리즘의
Read More
- [11] STATISTICS: One-Sample Tests_𝜎 Unknown (t test)
𝜎 Unknown (t test)
Read More
- [010] Deep learning 1: 데이터 증강구현 모델 배포
데이터 증강 구현 모델 DATA AUGMENTATION 배포,모델에 입력데이트 조정하여 결과값 내기, 배운내용 테스트로 마무리하기
Read More
- [12] STATISTICS: One-Sample Tests_one tail test
One-Tail Tests 종류,Lower-Tail Tests,Upper-Tail Tests, Example: Upper-Tail t Test for Mean (𝜎 unknown)
Read More
- [011] Deep learning 1: Pre-Trained Models
사전 트레이닝된 모델 Pre-Trained Models, 1000마리 종류의 동물 분류하는 코드, 개구멍 자동문 만들기, VGG16, 'Very Deep Convolutional Networks for Large-Scale Image Recognition'
Read More
- [012] Deep learning 1:Transfer Learning
전이 학습(Transfer Learning), 파인튜닝(fine tuning),사전 트레이닝된 모델 다운로드 ,기본 모델 동결,새 레이어 추가,모델 컴파일,데이터 증강,모델 트레이닝
Read More
- [13] Deep learning 2: 자연어와 단어의 통계기반 기법을 이용한 분산표현
자연어처리의 의미 Natural Language Processing (NLP),자연어와 단어의 분산 표현,자연어처리의 의미,시소러스,통계 기반 기법, 통계 기반 기법, 말뭉치 전처리 구현, 단어의 분산 표현, 통계기반 기법 개선, 상호정보량, 차원 감소(dimensionality reduction), 상호정보량 PMI, PPMI, 특잇값분해 Singular Value Decomposition (SVD), PTB 데이터셋 평가
Read More
- [+] Deep learning: 차원 축소, 토픽 모델링 (Latent Semantic Analysis, LSA)
LSA(Latent Semantic Analysis): 특잇값분해 Singular Value Decomposition (SVD), SVD, 절단된 SVD(Truncated SVD),LSA 사용, 결과 해석, LSA의 장점과 단점, LSA 실제 task에 적용
Read More
- [11] R(데이터 처리 패키지 dplyr package)
데이터munging (=wrangling),dplyr package,기본 함수들,filter(),%in%,arrange(),select(),helper function,everything(),rename(),mutate()함수,summarize(),group_by,Pipe연산자
Read More
- [14] Deep learning 2: 추론기반 기법 word2vec (CBOW,skip-gram 모델)
추론기반 기법 word2vec, 자연어처리의 의미,준비: 원핫 one-hot 표현,단순한 word2vec 구현,CBOW 모델 사용,CBOW 모델과 확률,skip-gram 모델,skip-gram 모델을 확률로,통계 기반 vs. 추론 기반/ 통계 기반기법,추론 기반기법 비교
Read More
- [12] R(예측 분석을 위한 기초 이론_확률분포의 모든 것)
확률분포의 개념,공분산,상관계수,조건부확률,독립,베이즈 정리,확률변수(확률질량함수,확률밀도함수,누적분포함수,확률분포의 특성값, 모수,분산과 표준편차,표준화,왜도skewness와 첨도kurtosis,이변량 확률분포,결합확률분포 joint probability distribution
Read More
- [13] Deep learning 2: 추론기반 기법 word2vec 속도 개선
word2vec 속도 개선 방법 2가지 / Embedding이라는 새로운 계층을 도입, 네거티브 샘플링이란 손실 함수 도입, 네거티브 샘플링 구현, Embedding Dot 계층의 구현,(구현) 다중 분류에서 이진 분류로, 시그모이드 함수와 교차 엔트로피 오차, 개선판 word2vec 학습, CBOW 모델 구현
Read More
- [13] R(예측 분석을 위한 기초 이론_이항분포, 베르누이 분포)
이항분포의 확률질량함수,베르누이분포 Bernoulli distribution,베르누이 시행Bernoulli trial
Read More
- [14] R(예측 분석을 위한 기초 이론_포아송 분포)
포아송 분포,이산확률 분포,확률질량함수(기대값, 분산, 유도식),관련예제
Read More
- [14] Deep learning 2: 순환신경망 RNN
확률과 언어 모델, word2vec의 CBOW 모델 복습,CBOW 모델 ➡ 언어 모델의 문제점/ RNN(순환 신경망)이란, BPTT, Truncated BPTT, RNN 구현, Time RNN,시계열 데이터 처리 계층 구현 RNNLM/ 언어 모델의 평가 perplexity/RNNLM의 Trainer 클래스
Read More
- [15] R(예측 분석을 위한 기초 이론_정규분포, 이항분포의 근사)
정규분포 normal distri-bution,확률밀도함수,표준정규분포,예제,이항분포의 포아송 근사,이항분포의 정규 근사
Read More
- [15] Deep learning 2: RNN에 게이트 추가하기(LSTM)
기울기 클리핑 gradients clipping/ 기본적인 RNN의 문제점/기울기 소실 또는 기울기 폭발 ,기울기 소실과 LSTM,output 게이트,forget 게이트,새로운 기억 셀,input 게이트/LSTM의 기울기 흐름, 구현/기울기 클리핑/RNNLM 추가 개선/매개변수 갱신/드롭아웃에 의한 과적합 억제/가중치 공유 weight tying
Read More
- [16] R(예측 분석을 위한 기초 이론_카이제곱 분포,F-분포, 자유도)
카이제곱분포 chi-squared distribution, 자유도,F-분포, 카이제곱 분포와 F-분포의 차이점
Read More
- [16] Deep learning 2: RNN을 사용한 문장 생성
언어 모델을 사용한 문장 생성,seq2seq, seq2seq의 구조,구현/시계열 데이터 변환용 장난감 문제,가변 길이 시계열 데이터, Encoder 클래스, Decoder 클래스,Seq2seq 클래스/seq2seq 개선,입력 데이터 반전(Reverse),엿보기 Peeky
Read More
- [13] STATISTICS: One-Sample Tests_Hypothesis Tests for Proportions
Hypothesis Tests for Proportions, Proportions, Example: Z Test for Proportion
Read More
- [17] Deep learning 2: 어텐션 Attention
어텐션의 구조,Encoder 개선,어텐션을 갖춘 seq2seq 구현,어텐션 평가,어텐션에 관한 남은 이야기,양방향 RNN,Attention 계층 사용 방법]
Read More
- [016] Concept(선형자료구조_해시테이블)
선형자료구조, 해시테이블, 해싱 Hashing,비둘기집 원리(서랍 원리) Pigeonhole Principle, 생일 문제 Birthday Problem,로드 팩터 Load Factor, 충돌 Collision의 처리 방법,개별 체이닝 Separate Chaining, 오픈 어드레싱
Read More
- [18] R(예측 분석을 위한 기초 이론_카이제곱 분포,F-분포, 자유도)
카이제곱분포 chi-squared distribution, 자유도,F-분포, 카이제곱 분포와 F-분포의 차이점
Read More
- [13] STATISTICS: Two-Sample Tests_Independent samples
문제로 개념 응용까지 해보는 Fundamentals of Hypothesis Testing: Two-Sample Tests,Comparing the mean of Two Independent Populations, Pooled-Variance t-test, Separate-variance t-test ,Independent Sample
Read More
- [017] Concept(비선형자료구조_그래프 모음 오일러 경로, 헤밀턴 경로)
비선형자료구조_그래프의 여러가지 종류/ 오일러경로,오일러 순회/ 헤밀턴 경로/ 헤밀턴 순회/ 그래프의 표현
Read More
- [021] Deep learning 1:Transfer Learning
전이 학습(Transfer Learning), 파인튜닝(fine tuning),사전 트레이닝된 모델 다운로드 ,기본 모델 동결,새 레이어 추가,모델 컴파일,데이터 증강,모델 트레이닝
Read More
- [15] STATISTICS: Two-Sample Tests_Related Populations
문제로 이해하는 Comparing the mean of Two Related Population: σ(퍼짐의 정도)를 모를 때, σ(퍼짐의 정도)를 알 때
Read More
- Deep learning: Hyperparameter와 Parameters
하이퍼 파라미터와 파라미터 비교하기
Read More
- [018] Concept(비선형자료구조_그래프의 응용/다익스트라 알고리즘)
비선형자료구조_그래프의 응용/다익스트라 알고리즘/ 최단경로 문제/ 외판원 문제 Travelling Salesman Problem(TSP) / 다익스트라 알고리즘 파이썬 구현, 다익스트라 알고리즘 수도코드
Read More
- [21] CS231N: Lecture 1 Introduction
Lecture 1 | Introduction to Convolutional Neural Networks for Visual Recognition 요약
Read More
- Deep learning: Training, validation, test datasets 비교
Training, validation, test datasets 비교하기, Training datasets, Validation datasets, Test datasets 비율,
Read More
- [019] Concept(비선형자료구조_NP 복잡도)
비선형자료구조_그래프의 응용/다익스트라 알고리즘/ 최단경로 문제/헤밀턴 경로/ 헤밀턴 순회/NP 복잡도
Read More
- [16] STATISTICS: Two-Sample Tests_Population proportion
문제로 이해하는 Fundamentals of Hypothesis Testing: Two-Sample Tests, Comparing the mean of Population proportion의 계산식,정규화 조건
Read More
- [22] CS231N: Lecture 2 Image Classification
Lecture 1 | Introduction to Convolutional Neural Networks for Visual Recognition 요약
Read More
- [020] Concept(비선형자료구조_깊이 우선 탐색:DFS/넓이 우선 탐색: BFS)
그래프 순회 Graph Traversals/깊이 우선 탐색(Depth First Search : DFS), DFS python 구현, DFS 재귀구현, DFS 스택구현, 수도코드. 스택과 재귀구현의 차이점 순회를 위한 그래프 준비,재귀 구현, 백 // 넓이 우선 탐색(Breadth-First Search : BFS), BFS python 구현, BFS 재귀구현 불가, BFS 큐구현,백트래킹 Backtracking, BFS 장단점
Read More
- [17] STATISTICS: Two-Sample Tests_Population Variance
문제로 개념 응용까지 해보는 Fundamentals of Hypothesis Testing: Two-Sample Tests,Comparing the mean of Two Population Variance , F Distribution
Read More
- [022] Concept(비선형자료구조_TREE1(Basic concept& 이진 트리 binary tree))
트리, 트리의 기본 개념,용어/트리의 성질,방향 트리, 그래프와 트리의 차이점/이진트리,이진트리 유형, 이진트리 최대 노드 수 / 탐방/ 중순위 탐답, 전순위 탐방, 후순위 탐방
Read More
- [18] STATISTICS: ANOVA
문제로 개념 응용까지 해보는 General ANOVA Setting, One-Way Analysis of Variance, Hypotheses of One-Way ANOVA, Partitioning the Variation,Partitioning the Variation , SST, SSA, SSW/ ANOVA F Test Statistic
Read More
- [023] Concept(비선형자료구조_TREE2(이진 탐색 트리 BST,자가 균형 이진 탐색 트리))
이진 탐색 트리 Binary Search Tree (BST), 자가 균형 이진 탐색 트리 Self-Balancing Binary Search Tree
Read More
- [024] Concept(비선형자료구조_TREE 노드의 삭제)
트리노드삭제 밑바닥부터 구현, 자식이 하나있는경우 2있는경우, 자식이 없는 경우/leaf 노드 삭제/single child를 갖은 노드 삭제/two child를 갖은 노드 삭제/ 자바 파이썬 구현
Read More
- [025] Algorithm(알고리즘이란?)
알고리즘의 의미와 정의/표현 방법(흐름도(flow chart),수도코드(Pseudo-code))/알고리즘 성능 분석(수행 시간 측정,복잡도 분석(Big-O notation))
Read More
- [23] CS231N: Lecture 3 Regularization and Optimization Regularization (2/2)
Lecture 3 | Stochastic Gradient Descent, Momentum, AdaGrad, Adam, Learning rate schedules 요약
Read More
- [23] CS231N: Lecture 3 Regularization and Optimization Regularization (1/2)
Lecture 3 | Stochastic Gradient Descent, Momentum, AdaGrad, Adam, Learning rate schedules 요약
Read More
- [24] CS231N: Lecture 4 Neural Networks and Backpropagation
Lecture 4 | Multi-layer Perceptron Backpropagation 요약
Read More
- [01] OpenCV 영상처리
OpenCV 영상처리_ RGB,Grayscale,HSV 색공간
Read More
- [026] Algorithm(정렬1_버블 정렬 bubble sort)
버블정렬 시각화, 버블정렬 평가, 버블정렬 파이썬 구현, 버블정렬 자바 구현, 시간 복잡도,버블정렬 쉽게 설명, 그림으로 보기
Read More
- [25] CS231N: Lecture 5 Convolutional Neural Networks
Lecture 5 | Convolutional Neural Networks 요약
Read More
- [02] OpenCV 영상처리
OpenCV 픽셀과 이미지 개념, 컬러 이미지를 구성하는 픽셀에 값을 넣기,컬러이미지를 그레이스케일 이미지로 변환, 그레이 스케일 이미지를 이진화 이미지로 변환
Read More
- [027] Algorithm(정렬2_삽입 정렬 insert sort)
삽입정렬 시각화, 삽입정렬 평가, 삽입정렬 파이썬 구현, 삽입정렬 자바 구현, 시간 복잡도,삽입정렬 쉽게 설명, 그림으로 보기
Read More
- [26] CS231N: Lecture 6 Training Neural Networks Part I
Lecture 6 | Training Neural Networks Part I 요약
Read More
- [03] OpenCV 영상처리 ROI/복사본
Mat 객체,ROI, Rect, Range / 이미지 복사본 생성 clone,copyTo
Read More
- [028] Algorithm(정렬3_선택정렬 SELECTION SORT)
선택정렬 시각화, 선택정렬 평가, 선택정렬 파이썬 구현, 선택정렬 자바 구현, 시간 복잡도,선택정렬 쉽게 설명, 그림으로 보기
Read More
- [27] CS231N: Lecture 7 Training Neural Networks Part II
Lecture 7 | Training Neural Networks Part II 요약
Read More
- [04] OpenCV 영상처리
픽셀에 접근하는 방법
Read More
- [029] Algorithm(정렬4_분할정복 Divide and Conquer)
분할정복 Divide and Conquer,
Read More
- [030] Algorithm(정렬4_분할정복 Divide and Conquer: 병합정렬 Merge Sort)
분할정복 Divide and Conquer, 병합정렬 시각화, 병합정렬 평가, 병합정렬 파이썬 구현, 병합정렬 자바 구현, 시간 복잡도,병합정렬 쉽게 설명, 그림으로 보기
Read More
- [05] OpenCV 영상처리 이미지 채널 분리 및 합치기
파이썬, C++ 이미지 채널 분리 및 합치기/ 채널 분리, 채널 합치기, 채널 혼합
Read More
- [031] Algorithm(정렬5_분할 정복 Divide and Conquer: 병합정렬 퀵정렬 quick sort)
분할 정복 Divide and Conquer,퀵정렬 시각화, 퀵정렬 평가, 퀵정렬 파이썬 구현, 퀵정렬 자바 구현, 시간 복잡도,퀵정렬 쉽게 설명, 그림으로 보기
Read More
- [29] CS231N: Lecture 9 CNN Architectures
Lecture 9 | CNN Architectures 요약
Read More
- [06] OpenCV 영상처리 이진화
이진화와 임계값 처리
Read More
- [032] Algorithm(정렬4_분할정복 Divide and Conquer: 힙정렬 Heap Sort)
분할정복 Divide and Conquer, 힙정렬 시각화, 힙정렬 평가, 힙정렬 파이썬 구현, 힙정렬 자바 구현, 시간 복잡도, 힙 추출, 힙 삽입, 힙정렬
Read More
- [07] OpenCV 영상처리 이진화
적응형 이진화 adaptiveThreshold
Read More
- [08] OpenCV 영상처리
이미지 연산 블랜딩 addWeighted
Read More
- [09] OpenCV 차연산
차연산 subtract
Read More
- [1004] (파이썬) leet code_148. Sort List
leet code_148. Sort List
Read More
- [010] OpenCV 영상처리 이미지 비트연산
이미지 비트연산 cv2.bitwise(연산 이미지1, 연산 이미지2), 로고를 이미지에 넣는 코드
Read More
- Deep learning: 오토인코더(Auto Encoder)
오토인코더(Auto Encoder) 목표, 개념, 전략, 오토 인코더 대칭 구성의 이유, 손실함수, 이상탐지
Read More
- [011] OpenCV 영상처리 죄표계, 선분그리기
OpenCV 영상처리 죄표계, 선분그리기, 파이썬 C++ line함수
Read More
- 강화학습 (Reinforcement Learning)
오토인코더(Auto Encoder) 목표, 개념, 전략, 오토 인코더 대칭 구성의 이유, 손실함수, 이상탐지
Read More
- Deep learning: NeMo를 통한 BERT 구현, 코드 설명
LightningModules(라이트닝모듈)
Read More
- Deep learning: Transformer 구현, 코드 설명
Transformer 모델 개요,Encoder,Embedding,positional encoding,Self-Attention,Multi-Head Attention,Decoder,Masked Multi Head Attention 트렌스포머 코드부터 개념까지
Read More
- [012] OpenCV 영상처리 컨볼루션과 마스크
OpenCV 영상처리 컨볼루션과 마스크
Read More
- Deep learning: 프레임워크, 라이브러리
프레임워크와 라이브러리의 개념, 장점/ 프레임워크 vs 라이브러리// 추가학습: 아키텍쳐 Architecture와 플랫폼의 정의
Read More
- [013] OpenCV 영상처리 블러링
OpenCV 영상처리 컨볼루션과 마스크 블러링, 평균블러링, 가우시안 블러링, 중간값 블러링, 양방향 필터링
Read More
- [014] OpenCV 영상처리 에지 검출
OpenCV 영상처리 에지검출 소벨필터, 캐니 에지 디텍터
Read More
- [015] OpenCV 영상처리 모폴로지
OpenCV 영상처리 모폴로지 Erosion, Dilation, Opening, cv2.getStructuringElement, cv2.erode
Read More
- [016] OpenCV 영상처리 허프변환
OpenCV 영상처리 허프 변환 Hough Line Transform, HoughLines 함수 원형, HoughLinesP 함수 원형
Read More
- [017] OpenCV 영상처리 허프변환
OpenCV 영상처리 허프 변환 Hough Circle Transform 원 그리기
Read More
- [018] OpenCV 영상처리 템플릿 매칭
OpenCV 영상처리 템플릿 매칭 matchTemplate () 함수 원형
Read More
- [INDEX] Reinforcement Learning
Are you ready to learn RL?
Read More
- [019] OpenCV 영상처리 컨투어
OpenCV 영상처리 findContours, drawContours
Read More
- [1020] (파이썬)BaekJoon 1259. 팰린드롬
팰린드롬, 회문
Read More
- [01] RL: 강화학습 기초 개념
Basic Concept of RL
Read More
- [31] CS2241N: Lecture 1 Word Vectors 정리
Lecture 1 | Word Vectors 요약
Read More
- [32] CS2241N: Lecture 2 Word Vectors 2 and Word Window Classification 정리
Lecture 2 | Word Vectors 2 and Word Window Classification 요약
Read More
- [33] CS2241N: Lecture 3 Backprop and Neural Networks 정리
Lecture 3 | Lecture 3 Backprop and Neural Networks 요약
Read More
- [34] CS2241N: Lecture 4 Dependency Parsing 정리
Lecture 4 | Dependency Parsing 요약
Read More
- [35] CS2241N: Lecture 5 Recurrent Neural Networks and Language Models 정리
Lecture 5 | Recurrent Neural Networks and Language Models 요약
Read More
- [11] Vector Spaces: 벡터란?
벡터란, 벡터에 담긴 기하학적 의미, 벡터 합, 합성벡터, 벡터 합의 평행사변형 법칙 (parallelogram law), 벡터 합의 평행사변형 법칙의 성질, 스칼라 곱, 세 점 A, B, C 로 결정되는 평면
Read More
- [12] Vector Spaces: 벡터 공간
대수적 구조로서 벡터의 개념, 벡터공간, 용어정리
Read More
- [13] Vector Spaces: 부분 공간, 행렬의 종류
부분공간(subspace) 정의, 부분공간이기 위한 필요충분조건, 행렬의 종류(정방행렬, 전치행렬, 대칭행렬, 영행렬, 삼각행렬, 대각행렬, 항등행렬, 직교행렬
Read More
- [14] Vector Spaces: 일차결합과 연립일차방정식
일차 결합 linear combination, 계수 coefficient, 일차결합 증명, 생성공간 span
Read More
- [15] Vector Spaces: 일차종속과 일차독립
일차종속 linearly dependent, 일차독립 linearly independent
Read More
- [16] Vector Spaces: 기저와 차원
기저 basis, 표준기저 standard basis, 기저의 성질, 대체정리 replacement theorem, 기저와 연관 개념, 부분공간의 차원, 라그랑주 보간법, 라그랑주 다항식 Lagrange polynomial]
Read More
- [17] 선형대수: 선형변환
기저 basis, 표준기저 standard basis, 기저의 성질, 대체정리 replacement theorem, 기저와 연관 개념, 부분공간의 차원, 라그랑주 보간법, 라그랑주 다항식 Lagrange polynomial]
Read More
- Markdown Syntax
Just about everything you'll need to style in the theme: headings, paragraphs, blockquotes, tables, code blocks, and more.
Read More
- A Post with a Video
Custom written post descriptions are the way to go... if you're not lazy.
Read More
- MathJax Example
MathJax Example for Moon Jekyll Theme.
Read More
- Syntax Highlighting Post
Demo post displaying the various ways of highlighting code in Markdown.
Read More
- Sample Post Images
To ground our approach, this section summarizes MLMs for pre-training bidirectional Transformers (Devlin et al., 2019). Compared to causal LMs (Peters et al., 2018) trained unidirectionally, MLMs randomly mask some tokens and predict the masked tokens by considering their context on both sides. Formally, given a piece of text U, a tokenizer, e.g., BPE (Sennrich et al., 2016), is used to produce a sequence of tokens [w1, . . . , wn]. A certain percentage of the original tokens are then masked and replaced: of those, 80% with the special token [MASK], 10% with a token sampled from the vocabulary V, and the remaining kept unchanged. The masked sequence, denoted as [w (m) 1 , . . . , w (m) n ], is passed into a Transformer encoder to produce contextualized representations for the sequence:
Read More