diff --git a/source/index.rst b/source/index.rst
index d458001..d646beb 100644
--- a/source/index.rst
+++ b/source/index.rst
@@ -3,16 +3,16 @@
You can adapt this file completely to your liking, but it should at least
contain the root `toctree` directive.
-Welcome to ⚡ PyTorch Lightning
-===============================
+⚡ PyTorch Lightning에 오신 것을 환영합니다!
+==============================================
.. twocolumns::
:left:
.. image:: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/mov.gif
:alt: Animation showing how to convert a standard training loop to a Lightning loop
:right:
- PyTorch Lightning is the deep learning framework for professional AI researchers and machine learning engineers who need maximal flexibility without sacrificing performance at scale.
- Lightning evolves with you as your projects go from idea to paper/production.
+ PyTorch Lightning(파이토치 라이트닝))은 대규모에서 성능을 포기하지 않으면서 최대한의 유연성을 필요로 하는 전문적인 AI 연구자들과 머신러닝 엔지니어들을 위한 딥러닝 프레임워크입니다.
+ Lightning(라이트닝)은 프로젝트가 생각으로부터 문서 / 제품화에 이르는 동안 함께 발전합니다.
.. raw:: html
@@ -36,8 +36,8 @@ Welcome to ⚡ PyTorch Lightning
-Install Lightning
------------------
+Lightning 설치하기
+----------------------
.. raw:: html
@@ -45,7 +45,7 @@ Install Lightning
-Pip users
+Pip 사용자라면,
.. code-block:: bash
@@ -56,7 +56,7 @@ Pip users
-Conda users
+Conda 사용자라면,
.. code-block:: bash
@@ -67,14 +67,14 @@ Conda users
-Or read the `advanced install guide `_
+또는 `advanced install guide `_ 참조하세요.
.. raw:: html
-Get Started
------------
+처음이신가요?
+-----------------
.. raw:: html
@@ -84,13 +84,13 @@ Get Started
.. Add callout items below this line
.. customcalloutitem::
- :description: Learn the 7 key steps of a typical Lightning workflow.
- :header: Lightning in 15 minutes
+ :header: LIGHTNING 15분 만에 배워보기
+ :description: 일반적인 Lightning 워크플로우의 주요한 7단계를 배웁니다.
:button_link: starter/introduction.html
.. customcalloutitem::
- :description: Learn how to benchmark PyTorch Lightning.
:header: Benchmarking
+ :description: Learn how to benchmark PyTorch Lightning.
:button_link: benchmarking/benchmarks.html
.. raw:: html
@@ -104,8 +104,8 @@ Get Started
-Current Lightning Users
------------------------
+이미 Lightning 사용자라면?
+---------------------------
.. raw:: html
@@ -268,7 +268,7 @@ Current Lightning Users
-Indices and tables
+색인 및 검색
------------------
* :ref:`genindex`
diff --git a/source/starter/introduction.rst b/source/starter/introduction.rst
index 4c32809..a5e92d2 100644
--- a/source/starter/introduction.rst
+++ b/source/starter/introduction.rst
@@ -1,20 +1,21 @@
:orphan:
-#######################
-Lightning in 15 minutes
-#######################
-**Required background:** None
+###############################
+Lightning 15분 만에 배워보기
+###############################
-**Goal:** In this guide, we'll walk you through the 7 key steps of a typical Lightning workflow.
+**필요한 배경지식:** 없음
-PyTorch Lightning is the deep learning framework with "batteries included" for professional AI researchers and machine learning engineers who need maximal flexibility while super-charging performance at scale.
+**목표:** 이 문서에서는 일반적인 Lightning 워크플로우의 주요한 7단계를 안내합니다.
+
+PyTorch Lightning(파이토치 라이트닝)은 대규모로 엄청 빠른 성능을 요구하면서 최대한의 유연성을 필요로 하는
+전문적인 AI 연구자들과 머신러닝 엔지니어들을 위한 "배터리가 포함된(batteries included)" 딥러닝 프레임워크입니다.
.. join_slack::
:align: left
:margin: 20
-
-Lightning organizes PyTorch code to remove boilerplate and unlock scalability.
+Lightning(라이트닝)은 반복적으로 사용하는 코드(boilerplate)를 제거하고 확장성(scalability)을 확보하도록 PyTorch 코드를 재구성합니다.
.. raw:: html
@@ -23,7 +24,7 @@ Lightning organizes PyTorch code to remove boilerplate and unlock scalability.
|
-By organizing PyTorch code, lightning enables:
+PyTorch 코드를 재구성함으로써, Lightning에서는 이런 것들이 가능해집니다:
.. raw:: html
@@ -33,29 +34,29 @@ By organizing PyTorch code, lightning enables:
.. Add callout items below this line
.. displayitem::
- :header: Full flexibility
- :description: Try any ideas using raw PyTorch without the boilerplate.
+ :header: 완전한 유연성
+ :description: 반복되는 코드 없이 PyTorch를 그대로 사용하여 아이디어를 구현합니다.
:col_css: col-md-3
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/card_full_control.png
:height: 290
.. displayitem::
- :description: Decoupled research and engineering code enable reproducibility and better readability.
- :header: Reproducible + Readable
+ :header: 재현성 + 가독성
+ :description: 연구용 코드와 엔지니어링 코드를 분리하여 재현성을 갖추고 더 나은 가독성을 제공합니다.
:col_css: col-md-3
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/card_no_boilerplate.png
:height: 290
.. displayitem::
- :description: Use multiple GPUs/TPUs/HPUs etc... without code changes.
- :header: Simple multi-GPU training
+ :header: 간단한 다중 GPU 학습
+ :description: 코드 변경 없이 여러개의 GPU/TPU/HPU 등을 사용합니다.
:col_css: col-md-3
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/card_hardware.png
:height: 290
.. displayitem::
- :description: We've done all the testing so you don't have to.
- :header: Built-in testing
+ :header: 테스트 완료
+ :description: 이미 모든 테스트를 완료하여 직접 테스트 할 필요없습니다.
:col_css: col-md-3
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/card_testing.png
:height: 290
@@ -69,15 +70,15 @@ By organizing PyTorch code, lightning enables:
----
-****************************
-1: Install PyTorch Lightning
-****************************
+******************************
+1: PyTorch Lightning 설치하기
+******************************
.. raw:: html
-For `pip `_ users
+`pip `_ 사용자라면,
.. code-block:: bash
@@ -88,7 +89,7 @@ For `pip `_ users
-For `conda `_ users
+`conda `_ 사용자라면,
.. code-block:: bash
@@ -99,17 +100,17 @@ For `conda `_ users
-Or read the `advanced install guide `_
+또는 `advanced install guide `_ 를 참조하세요.
----
.. _new_project:
-***************************
-2: Define a LightningModule
-***************************
+*****************************
+2: LightningModule 정의하기
+*****************************
-A LightningModule enables your PyTorch nn.Module to play together in complex ways inside the training_step (there is also an optional validation_step and test_step).
+LightningModule을 사용하여 PyTorch nn.Module이 training_step (뿐만 아니라 validation_step이나 test_step) 내에서 복잡한 방식으로 함께 동작할 수 있도록 합니다.
.. testcode::
@@ -118,11 +119,11 @@ A LightningModule enables your PyTorch nn.Module to play together in complex way
from tests.helpers.datasets import MNIST
import pytorch_lightning as pl
- # define any number of nn.Modules (or use your current ones)
+ # 원하는만큼의 nn.Module (또는 기존 모델)을 정의합니다.
encoder = nn.Sequential(nn.Linear(28 * 28, 64), nn.ReLU(), nn.Linear(64, 3))
decoder = nn.Sequential(nn.Linear(3, 64), nn.ReLU(), nn.Linear(64, 28 * 28))
- # define the LightningModule
+ # LightningModule을 정의합니다.
class LitAutoEncoder(pl.LightningModule):
def __init__(self, encoder, decoder):
super().__init__()
@@ -146,67 +147,69 @@ A LightningModule enables your PyTorch nn.Module to play together in complex way
return optimizer
- # init the autoencoder
+ # 오토인코더(autoencoder)를 초기화합니다.
autoencoder = LitAutoEncoder(encoder, decoder)
----
-*******************
-3: Define a dataset
-*******************
+**********************
+3: 데이터셋 정의하기
+**********************
-Lightning supports ANY iterable (:class:`~torch.utils.data.DataLoader`, numpy, etc...) for the train/val/test/predict splits.
+Lightning은 *어떠한* 순회 가능한 객체(iterable; :class:`~torch.utils.data.DataLoader`, numpy 등...)도 학습/검증/테스트/예측용으로 나누어 사용할 수 있습니다.
.. code-block:: python
- # setup data
+ # 데이터를 설정합니다.
dataset = MNIST(os.getcwd(), download=True)
train_loader = utils.data.DataLoader(dataset)
----
******************
-4: Train the model
+4: 모델 학습하기
******************
-The Lightning :doc:`Trainer <../common/trainer>` "mixes" any :doc:`LightningModule <../common/lightning_module>` with any dataset and abstracts away all the engineering complexity needed for scale.
+Lightning :doc:`Trainer <../common/trainer>` 는 모든 :doc:`LightningModule <../common/lightning_module>` 과 데이터셋을 "함께(mix)" 학습할 수 있으며,
+확장에 필요한 모든 엔지니어링적 복잡성들을 추상화(abstract)합니다.
.. code-block:: python
- # train the model (hint: here are some helpful Trainer arguments for rapid idea iteration)
+ # 모델을 학습합니다 (힌트: 빠른 아이디어 반복에 도움이 되는 Trainer의 인자들을 참고하세요)
trainer = pl.Trainer(limit_train_batches=100, max_epochs=1)
trainer.fit(model=autoencoder, train_dataloaders=train_loader)
-The Lightning :doc:`Trainer <../common/trainer>` automates `40+ tricks <../common/trainer.html#trainer-flags>`_ including:
+Lightning :doc:`Trainer <../common/trainer>` 는 아래 예시들을 포함하여 `40종류 이상의 기법들 <../common/trainer.html#trainer-flags>`_ 을 자동화합니다:
-* Epoch and batch iteration
-* ``optimizer.step()``, ``loss.backward()``, ``optimizer.zero_grad()`` calls
-* Calling of ``model.eval()``, enabling/disabling grads during evaluation
-* :doc:`Checkpoint Saving and Loading <../common/checkpointing>`
-* Tensorboard (see :doc:`loggers <../visualize/loggers>` options)
-* :doc:`Multi-GPU <../accelerators/gpu>` support
+* 에폭(epoch) 및 배치(batch) 반복
+* ``optimizer.step()``, ``loss.backward()``, ``optimizer.zero_grad()`` 호출
+* 평가(evaluation) 도중 경사도(grads) 활성화/비활성화를 위한 ``model.eval()`` 호출
+* :doc:`체크포인트(checkpoint) 저장하기 및 불러오기 <../common/checkpointing>`
+* 텐서보드(tensorboard) (:doc:`loggers <../visualize/loggers>` 옵션 참조)
+* :doc:`Multi-GPU <../accelerators/gpu>` 지원
* :doc:`TPU <../accelerators/tpu>`
-* :ref:`16-bit precision AMP ` support
+* :ref:`16비트 정밀도(precision) AMP ` 지원
----
-****************
-5: Use the model
-****************
-Once you've trained the model you can export to onnx, torchscript and put it into production or simply load the weights and run predictions.
+******************
+5: 모델 사용하기
+******************
+
+모델을 학습한 뒤에는 ONNX, TorchScript로 내보내기(export)하여 상용 환경에 포함하거나 단순히 가중치를 불러오고 예측을 실행할 수 있습니다.
.. code:: python
- # load checkpoint
+ # 체크포인트(checkpoint)를 불러옵니다.
checkpoint = "./lightning_logs/version_0/checkpoints/epoch=0-step=100.ckpt"
autoencoder = LitAutoEncoder.load_from_checkpoint(checkpoint, encoder=encoder, decoder=decoder)
- # choose your trained nn.Module
+ # 학습한 nn.Module을 선택합니다.
encoder = autoencoder.encoder
encoder.eval()
- # embed 4 fake images!
+ # 4개의 가짜 이미지로 예측(embed)합니다!
fake_image_batch = Tensor(4, 28 * 28)
embeddings = encoder(fake_image_batch)
print("⚡" * 20, "\nPredictions (4 image embeddings):\n", embeddings, "\n", "⚡" * 20)
@@ -214,11 +217,12 @@ Once you've trained the model you can export to onnx, torchscript and put it int
----
*********************
-6: Visualize training
+6: 학습 시각화하기
*********************
-Lightning comes with a *lot* of batteries included. A helpful one is Tensorboard for visualizing experiments.
-Run this on your commandline and open your browser to **http://localhost:6006/**
+Lightning에는 *많은* 배터리가 포함되어 있습니다. 실험을 시각화하는데 사용하는 텐서보드(Tensorboard)도 유용한 도구 중 하나입니다.
+
+명령줄(commandline)에서 아래를 실행하고 브라우저에서 **http://localhost:6006/** 을 열어보세요.
.. code:: bash
@@ -226,20 +230,21 @@ Run this on your commandline and open your browser to **http://localhost:6006/**
----
-***********************
-7: Supercharge training
-***********************
-Enable advanced training features using Trainer arguments. These are state-of-the-art techniques that are automatically integrated into your training loop without changes to your code.
+*************************
+7: 엄청 빠르게 학습하기
+*************************
+
+Trainer에 인자(argument)를 사용하여 고급 학습 기능을 사용할 수 있습니다. 이는 다른 코드를 변경하지 않으면서 학습 단계(train loop)에 자동으로 통합할 수 있도록 하는 최신(state-of-the-art)의 기술입니다.
.. code::
- # train on 4 GPUs
+ # 4개의 GPU에서 학습
trainer = Trainer(
devices=4,
accelerator="gpu",
)
- # train 1TB+ parameter models with Deepspeed/fsdp
+ # Deepspeed/FSDP를 사용하여 1TB 이상의 매개변수를 갖는 모델 학습
trainer = Trainer(
devices=4,
accelerator="gpu",
@@ -247,35 +252,36 @@ Enable advanced training features using Trainer arguments. These are state-of-th
precision=16
)
- # 20+ helpful flags for rapid idea iteration
+ # 빠른 아이디어 반복을 위한 20개 이상의 유용한 플래그(flag)
trainer = Trainer(
max_epochs=10,
min_epochs=5,
overfit_batches=1
)
- # access the latest state of the art techniques
+ # 최신 기술을 사용
trainer = Trainer(callbacks=[StochasticWeightAveraging(...)])
----
********************
-Maximize flexibility
+유연성 극대화하기
********************
-Lightning's core guiding principle is to always provide maximal flexibility **without ever hiding any of the PyTorch**.
-Lightning offers 5 *added* degrees of flexibility depending on your project's complexity.
+Lightning의 핵심 원칙은 **PyTorch의 어떠한 부분도 숨기지 않으면서** 언제나 최대한의 유연성을 제공하는 것입니다.
+
+Lightning은 프로젝트의 복잡도에 따라 *추가적인* 5단계의 유연성을 제공합니다.
----
-Customize training loop
-=======================
+학습 단계(loop) 사용자 정의하기
+==================================
.. image:: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/custom_loop.png
:width: 600
:alt: Injecting custom code in a training loop
-Inject custom code anywhere in the Training loop using any of the 20+ methods (:ref:`lightning_hooks`) available in the LightningModule.
+LightningModule에서 사용할 수 있는 20개 이상의 메소드 (:ref:`lightning_hooks`) 중 일부를 사용하여 훈련 단계 어디에든 사용자 정의 코드를 삽입할 수 있습니다.
.. testcode::
@@ -285,7 +291,7 @@ Inject custom code anywhere in the Training loop using any of the 20+ methods (:
----
-Extend the Trainer
+Trainer 확장하기
==================
.. raw:: html
@@ -293,7 +299,7 @@ Extend the Trainer
-If you have multiple lines of code with similar functionalities, you can use callbacks to easily group them together and toggle all of those lines on or off at the same time.
+유사한 기능을 하는 여러줄의 코드가 있는 경우, 콜백(callback)을 사용하여 손쉽게 그룹으로 묶어서 해당하는 코드들을 동시에 켜거나 끌 수 있습니다.
.. code::
@@ -301,10 +307,10 @@ If you have multiple lines of code with similar functionalities, you can use cal
----
-Use a raw PyTorch loop
-======================
+PyTorch 자체의 반복(loop) 사용하기
+===================================
-For certain types of work at the bleeding-edge of research, Lightning offers experts full control of their training loops in various ways.
+최첨단 연구 시 특정 유형의 작업들을 위해, Lightning은 전문가들이 다양한 방식으로 학습 단계를 완전히 제어할 수 있는 기능을 제공합니다.
.. raw:: html
@@ -314,8 +320,8 @@ For certain types of work at the bleeding-edge of research, Lightning offers exp
.. Add callout items below this line
.. displayitem::
- :header: Manual optimization
- :description: Automated training loop, but you own the optimization steps.
+ :header: 직접 최적화(manual optimization)
+ :description: 자동화된 학습 단계에서 최적화 단계는 사용자가 직접 관여합니다.
:col_css: col-md-4
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/manual_opt.png
:button_link: ../model/build_model_advanced.html#manual-optimization
@@ -323,8 +329,8 @@ For certain types of work at the bleeding-edge of research, Lightning offers exp
:height: 320
.. displayitem::
- :header: Lightning Lite
- :description: Full control over loop for migrating complex PyTorch projects.
+ :header: Lightning Lite(라이트닝 라이트)
+ :description: 복잡한 PyTorch 프로젝트를 이관하기 위한 반복 단계를 완벽히 제어합니다.
:col_css: col-md-4
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/lite.png
:button_link: ../model/build_model_expert.html
@@ -332,8 +338,8 @@ For certain types of work at the bleeding-edge of research, Lightning offers exp
:height: 320
.. displayitem::
- :header: Loops
- :description: Enable meta-learning, reinforcement learning, GANs with full control.
+ :header: 반복(Loop)
+ :description: 메타학습(meta-learning), 강화학습(reinforcement learning), GAN을 완벽히 제어합니다.
:col_css: col-md-4
:image_center: https://pl-bolts-doc-images.s3.us-east-2.amazonaws.com/loops.png
:button_link: ../extensions/loops.html
@@ -350,9 +356,10 @@ For certain types of work at the bleeding-edge of research, Lightning offers exp
----
**********
-Next steps
+다음 단계
**********
-Depending on your use case, you might want to check one of these out next.
+
+사용 사례에 따라, 아래 내용들 중 하나를 다음 단계로 살펴보세요.
.. raw:: html