728x90

전체 글 383

MNIST 손글씨 데이터셋을 이용한 숫자 분류 모델 만들기

MNIST 손글씨 데이터셋을 이용한 숫자 분류 모델 만들기1. 개요MNIST는 손으로 쓴 숫자(0~9)를 포함하는 유명한 이미지 데이터셋으로, 딥러닝을 처음 배우는 사람들에게 널리 사용되는 데이터셋입니다. 이 글에서는 TensorFlow와 Keras를 이용해 MNIST 데이터를 학습하고 숫자를 분류하는 신경망 모델을 만들어 보겠습니다.2. MNIST 데이터셋 소개MNIST 데이터셋은 28x28 크기의 흑백 이미지로 구성되어 있으며, 총 70,000개의 이미지가 포함됩니다. 이 중 60,000개는 학습 데이터(training set)로, 10,000개는 테스트 데이터(test set)로 사용됩니다.데이터 로드 및 확인TensorFlow의 tf.keras.datasets 모듈을 이용하면 간단하게 MNIST ..

Python DeepLearning 2025.04.27

Hugging Face와 PyTorch 활용

Hugging Face와 PyTorch 활용1. 들어가며자연어 처리(NLP) 분야에서 Transformer 기반 모델은 필수적인 기술로 자리 잡았습니다. 특히, Hugging Face의 transformers 라이브러리는 이러한 모델을 쉽게 활용할 수 있도록 다양한 사전 학습된 모델을 제공하고 있습니다. 본 글에서는 Hugging Face의 transformers 라이브러리를 PyTorch와 함께 활용하는 방법을 살펴보겠습니다.2. Hugging Face transformers 라이브러리 개요Hugging Face의 transformers 라이브러리는 BERT, GPT, T5, RoBERTa 등 다양한 사전 학습된 모델을 제공하며, 이를 PyTorch 및 TensorFlow에서 쉽게 사용할 수 있도록 지..

PyTorch 2025.04.26

BERT와 GPT의 차이점 및 기본 개념

BERT와 GPT의 차이점 및 기본 개념1. 개요딥러닝과 자연어 처리(NLP) 분야에서 BERT와 GPT는 가장 널리 사용되는 언어 모델 중 하나입니다. 두 모델은 모두 트랜스포머(Transformer) 기반의 아키텍처를 사용하지만, 학습 방식과 활용 방법에서 차이가 있습니다. 이번 글에서는 BERT와 GPT의 기본 개념을 이해하고, 두 모델의 차이점을 비교해 보겠습니다.2. BERT란?BERT(Bidirectional Encoder Representations from Transformers)는 Google이 2018년에 발표한 사전 훈련된 언어 모델입니다. BERT는 트랜스포머의 인코더(Encoder) 아키텍처를 기반으로 하며, 문맥을 양방향으로 고려하는 것이 특징입니다.2.1. BERT의 핵심 개념..

Python DeepLearning 2025.04.26
728x90