728x90

2025/04/27 2

간단한 BERT 모델 Fine-Tuning

간단한 BERT 모델 Fine-Tuning1. 들어가며BERT(Bidirectional Encoder Representations from Transformers)는 Google에서 발표한 사전 훈련된 트랜스포머 기반 모델로, 다양한 자연어 처리(NLP) 태스크에서 뛰어난 성능을 보입니다. BERT를 특정 작업에 맞춰 미세 조정(Fine-Tuning)하면 더욱 강력한 성능을 발휘할 수 있습니다.이번 포스팅에서는 Hugging Face의 transformers 라이브러리를 활용하여 BERT 모델을 간단한 문장 분류(task) 문제에 적용하는 방법을 다루겠습니다.2. 환경 설정BERT를 Fine-Tuning하기 위해 필요한 라이브러리를 설치해야 합니다. 먼저 아래의 패키지를 설치합니다.pip install ..

PyTorch 2025.04.27

MNIST 손글씨 데이터셋을 이용한 숫자 분류 모델 만들기

MNIST 손글씨 데이터셋을 이용한 숫자 분류 모델 만들기1. 개요MNIST는 손으로 쓴 숫자(0~9)를 포함하는 유명한 이미지 데이터셋으로, 딥러닝을 처음 배우는 사람들에게 널리 사용되는 데이터셋입니다. 이 글에서는 TensorFlow와 Keras를 이용해 MNIST 데이터를 학습하고 숫자를 분류하는 신경망 모델을 만들어 보겠습니다.2. MNIST 데이터셋 소개MNIST 데이터셋은 28x28 크기의 흑백 이미지로 구성되어 있으며, 총 70,000개의 이미지가 포함됩니다. 이 중 60,000개는 학습 데이터(training set)로, 10,000개는 테스트 데이터(test set)로 사용됩니다.데이터 로드 및 확인TensorFlow의 tf.keras.datasets 모듈을 이용하면 간단하게 MNIST ..

Python DeepLearning 2025.04.27
728x90