GPU 지원 컨테이너를 사용할 필요가 없으면 다음 코드 예시를 입력하세요. tf-cpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
gcr.io/deeplearning-platform-release/tf-cpu.1-13
GPU 지원 컨테이너를 사용하려면 다음 코드 예시를 입력합니다. tf-gpu.1-13을 사용하려는 컨테이너의 이름으로 바꿉니다.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
gcr.io/deeplearning-platform-release/tf-gpu.1-13
이 명령어는 분리 모드에서 컨테이너를 시작하고, 로컬 디렉터리 /path/to/local/dir을 컨테이너의 /home/jupyter에 마운트하고, 컨테이너의 포트 8080을 로컬 머신의 포트 8080에 매핑합니다. 컨테이너는 http://localhost:8080에서 방문할 수 있는 JupyterLab 서버를 시작하도록 사전 구성됩니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-12-21(UTC)"],[[["This guide details the process of creating and setting up a local deep learning container, requiring basic Docker knowledge."],["The setup involves creating or selecting a Google Cloud project, installing and initializing the gcloud CLI, and installing Docker, with specific instructions for Linux users to avoid using `sudo`."],["Users can choose from available deep learning containers using a command to list them or visit the \"Choosing a container\" page, then using a command to either use a cpu container, or a gpu-enabled container."],["The container is launched in detached mode, mounting a local directory to the container and mapping a port, which then allows the user to use a preconfigured JupyterLab server."],["Optionally, for those requiring GPU acceleration, the guide suggests installing `nvidia-docker`, and using the appropriate container creation command."]]],[]]