Processing math: 100%
본문 바로가기
반응형

Self-Obj79

[Coding Test][Python] Hash Table(Dictionary) 개념 및 예제 ※ Hash Table 이란?효율적인 탐색을 위한 자료구조로써 key-value 쌍의 데이터를 입력받는다.        Hash Function h의 key값을 입력으로 얻은 해시값 h(k)를 위치로 지정하여 저장한다.      저장, 삭제, 검색의 시간복잡도는 모두 O(1)이다. Direct Access AddressDirect Access Address는 특정 Key 값을 주소로 직접 사용하여 데이터를 저장하는 방식이다.위 2가지 단점이 존재하기 때문에 Key 값에 Hash Function을 적용하여 사용한다.불필요한 메모리 공간 낭비ex) Key 값이 1, 1000 => 2개의 데이터를 위해 1000개의 공간이 필요Key 값으로 문자열이 올 수 없다Collision서로 다른 Key의 Hash.. 2025. 1. 27.
[DL][CNN] LeNet-5 1. LeNet-5 란?LeNet-5는 합성곱 신경망이라는 개념을 최초로 Yann LeCun이 개발한 구조이다. 수표에 쓴 손글씨 숫자를 인식하는 Deep Learning 구조 LeNet-5fmf 1955년 발표하였는데, 이것이 현재 CNN의 초석이 되었다. LeNet-5는 합성곱(Convolutional)과 다운 샘플링(Down - Sampling 혹은 Pooling)을 반복적으로 거치면서 마지막에 완전 연결층에서 분류를 수행한다.  Input : 32 x 32 x 1Convolution Layer 1(C1) : 5x5 합성곱 => 28 x 28의 Feature Map 6개 생성in_channels=1, out_channels=6, kernel_size=5, stride=1$W = H = \frac{3.. 2025. 1. 15.
[DL][CNN] 설명 가능한 AI (Explainable Artificial Intelligence, XAI)와 Feature Map 시각화, PyTorch 예제 1. Explainable Artificial Intelligence(XAI) 란?Explainable AI란 Deep Learning 처리 결과를 사람이 이해할 수 있는 방식으로 제시하는 기술이다. Deep Learning에서 Model 내부는 Black Box 같아 내부에서 어떻게 동작하는지 설명하기 어렵다.따라서 Deep Learning을 통해 얻은 결과는 신뢰하기 어려운데 처리 과정을 시각화해야 할 필요성이 있다. Model을 구성하는 각 중간 게층부터 최종 분류기까지 입력된 이미지에 대해 Feature map이 어떻게 추출되고 학습하는지를 시각적으로 설명할 수 있어야만 결과에 대한 신뢰성을 얻을 수 있다. 이제부터 CNN 내부 과정에 대한 시각화를 진행하는데 시각화 방법에는 Filter에 대한 .. 2025. 1. 15.
[Coding Test][Python] Stack 개념, Stack 구현 및 예제 ※ Stack 이란?데이터를 선형으로 저장하는 자료 구조로 LIFO(Last In, First Out) 구조를 가진다.Stack 주요 연산Push : Stack의 맨 위(Top)에 데이터 삽입Pop : Stack의 맨 위(Top)에 있는 데이터 제거하고 returnTop : Stack의 맨 위(Top)에 있는 데이터를 조회Stack 활용 사례재귀 함수 처리괄호 매칭DFS문자열 뒤집기등등1. Stack  구현Stack은 Python에 특별한 라이브러리가 존재하지 않고 List를 Stack으로 사용한다.아래 코드에서는 Stack Class를 정의하여 사용하였지만 바로 List에 적용하면 된다.class Stack(object): def __init__(self): self.list = [].. 2025. 1. 15.
[Coding Test][Python] Queue 정리 및 List Based Queue 구현 ※ Queue란 ?데이터를 선형으로 저장하는 자료구조로, FIFO(First In, First Out) 방식으로 작동한다.주요 Method로는 Enqeue(데이터를 Queue의 뒤쪽에 추가), Dequeue(데이터를 Queue 앞에서 제거)가 있다.1. Python Method 사용법append(x=)q = deque()q.append(1)q.append(2)q.append(3)q.append(4)q deque([1, 2, 3, 4]) appendleft(x=)q = deque()q.appendleft(1)q.appendleft(2)q.appendleft(3)q.appendleft(4)q deque([4, 3, 2, 1]) extend(iterable=)기존 Queue에 다른 Iterable 한 객체의 .. 2025. 1. 15.
[Coding Test][Python] List 정리 및 Linked List 구현 1. Python Method 사용법append(object=)li = [1,2,3]li.append(1)li [1, 2, 3, 1] clear()li = [1,2,3]li.clear()li [] copy()li = [1,2,3]# Deepcopyli2 = li.copy()print(li2)li[1] = 1print(li2)[1, 2, 3, 1] count(value=)value가 없어도 Error가 나지 않는다li = [1,2,2,3]print(li.count(2))print(li.count(4)) 2 0 extend(iterable=)기존 List에 다른 Iterable 한 객체의 원소를 이어붙인다li = [1,2,3] li2 = [1,2,3]# 원본 리스트를 수정하고 새로운 list를 반환하지.. 2025. 1. 14.
[DL][CNN]전이학습의 미세조정 기법(Fine - Tuning) 개념 및 PyTorch 예제 앞선 글에서 Transfer Learning의 개념과 Transfer Learning의 한 종류인 Feature Extraction에 대해 알아보았습니다.이제 Transfer Learning의 또 다른 기법인 Fine - Tuning에 대해 알아보겠습니다. 전이학습(Transfer Learning) 및 특성추출(Feature Extraction) 정리 ,CNN(resnet18) PyTorch 예제1. 전이 학습(Transfer Learning)이란?일반적으로 CNN 기반의 딥러닝 모델을 제대로 훈련시키려면 많은 양의 데이터가 필요하다. 하지만 큰 데이터셋을 얻는 것은 현실적으로 어렵기 때문에 아주 큰 데self-objectification.tistory.com1. 미세 조정 기법(Fine - Tuning.. 2025. 1. 14.
[DL][CNN]전이학습(Transfer Learning) 및 특성추출(Feature Extraction) 정리 ,CNN(resnet18) PyTorch 예제 1. 전이 학습(Transfer Learning)이란?일반적으로 CNN 기반의 딥러닝 모델을 제대로 훈련시키려면 많은 양의 데이터가 필요하다. 하지만 큰 데이터셋을 얻는 것은 현실적으로 어렵기 때문에 아주 큰 데이터 셋을 써서 훈련된 모델의 Parameter를 가져와 해결하려는 과제에 맞게 보정해서 사용하는 *Transfer Learning*을 진행하여 현실적인 어려움을 해결한다.       이 때 아주 큰 데이터셋을 사용하여 훈련된 모델을 Pre-trained model이라 부른다.전이 학습을 위한 방법으로는 특성 추출(Feature Extraction)과 미세 조정(Fine - Tuning) 기법이 있다. 2. 특성 추출 기법(Feature Extraction)이란?ImageNet 데이터셋으로 Pre.. 2025. 1. 14.
[Recommendation System] 메타코드M "Kaggle 데이터를 활용한 개인화 추천시스템" (ML/DL) 이번 글은 메타코드 M의 "Kaggle 데이터를 활용한 개인화 추천시스템 100% 실습 강의 | 우아한 형제들, 현대카드 출신 Data Scientist 현직자 강의 " 강의에 대한 후기를 작성해보려고 합니다 ! 이 강의는 Python의 Numpy, Pandas, Matplotlib, Seaborn, Scikit-learn, Keras에 대해 선행지식을 가지고 있어야 하니 관심 있으신 분들은 따로 공부하시거나 메타코드에 다양한 강의가 있으니 먼저 수강하시는 것을 추천드립니다.1. 강의 수강 계기메타코드 M을 알게된 것은 2년전 쯤 우연히 유튜브 강의를 통해서 알게 되었고, 그 강의는 "머신러닝 강의 1,2,3강 - [국내 Top AI대학원 박사] " 였고, 유튜브에 장편으로 Machine Learning.. 2024. 12. 4.
반응형