포럼
Why the World’s AI Runs on Ubuntu: Inside the Engineering Powering the Revolution (YouTube 영상 공유)
Ubuntu Weekly Newsletter 보다가 괜찮은 영상이 하나 올라와서, 내용 요약과 함께 공유 해 봅니다.
요 몇년 사이에 생성형 AI 가 정말 많이 퍼지면서, LLM 모델을 만들거나, 튜닝하거나, 아니면 만들어진 로컬 LLM 을 우분투에 설치해서 운영하는 경우도 자주 있는데요.사실 그 전에도 기계학습 모델을 우분투 기반 시스템에서 학습 해서 만들거나, 만들어진 모델 운영하는 사례는 많이 있어왔던 것 같습니다.
저는 AI 쪽은 잘 모르다 보니 왜 우분투 기반으로 많이들 하시냐고 물어보면, 많이들 하시는 답변이 참고 하는 레퍼런스 문서가 대부분 우분투에 설치/구성 하는 것 가정하고 설명해서 그렇다고들 많이 하셨던 것 같네요. AI 연구/개발/운영 관련 도구 설치와 구성이 우분투에서 가장 수월한 것이 이유이기도 했던 것 같구요.
또 해외에서는 AI 아닌 다른 유형의 웹 기반 서비스(뱅킹이던, 쇼핑이던, 커리어 관련 서비스이던 상관 없이)를 우분투 서버로 운영하는 사례가 대다수인, 반면 국내는 만나서 물어보면 다들 레드햇 계열(RedHat, CentOS, Rocky Linux, Alma Linux 등등)로 운영 하신다고들 많이 이야기 하시는데. AI/ML 운영을 위한 서버 환경은 또 특이하게 국내도 예외 없이 우분투를 활용 한다고들 이야기를 많이 들은 것 같습니다.
영상에서는 Canonical 의 우분투 엔지니어링 VP 인 Jon Seager가 왜 전세계 많은 기업에서 우분투에 AI 워크로드를 운영 하는지, 이런 우분투를 만들기 위해 뒤에서 우분투와 캐노니컬이 어떤 노력을 하는지 등을 다룹니다.
아래 영상 각 파트별 요약은 간단히 Gemini 로 해 보았습니다.
Ubuntu: AI의 조용한 강자 (0:00) Ubuntu는 AI 분야에 새롭게 뛰어든 것이 아니라, 지난 20년 이상 AI 워크로드의 대다수를 지원해오며 이 분야의 기반을 다져왔습니다.
클라우드 AI가 Ubuntu에서 실행되는 이유 (1:40) 클라우드 인스턴스를 실행할 때, 사용자가 어떤 Linux를 사용하는지 크게 신경 쓰지 않더라도 실제로 대부분은 Ubuntu를 기반으로 합니다. 이는 Google Cloud, Amazon, Digital Ocean 등 주요 클라우드 서비스 전반에 걸쳐 해당됩니다.
NVIDIA, AMD, Intel과의 협력 (3:50) Canonical은 NVIDIA, AMD, Intel을 포함한 다양한 하드웨어 파트너와 긴밀하게 협력합니다. 이러한 파트너십 덕분에 사용자가 새로운 하드웨어를 구매할 때, CPU와 GPU뿐만 아니라 NPU 및 TPU와 같은 모든 가속기에 대한 커널 지원이 출시 당일부터 보장됩니다.
“빅딜”: CUDA & ROCm의 네이티브 apt 설치 (5:30) Ubuntu 26.04 LTS 출시와 함께, 사용자는 apt install cuda 또는 apt install rocm 명령만으로도 필요한 버전을 설치할 수 있게 됩니다. 이는 수동으로 드라이버를 구성하는 복잡한 과정을 없애주어 AI 개발을 훨씬 쉽게 만듭니다.
오픈 소스 AI 제품 및 향후 로드맵 (7:00) Ubuntu는 Inference Snap(인퍼런스 스냅) 과 같은 오픈 소스 AI 제품을 출시했습니다 (8:02). 이는 하드웨어 제조사가 특정 하드웨어에 맞게 최적화한 고품질 AI 모델을 제공하는 것으로, snap install 명령을 통해 쉽게 설치할 수 있습니다. 또한, Ubuntu는 LexD 및 Multipass와 같은 도구를 통해 에이전트 샌드박싱 기능을 제공하여 AI 개발 및 배포 환경을 안전하게 만듭니다 (11:57).
Stop Struggling with CUDA: How Ubuntu 26.04 is Fixing AI Development Forever
1개의 게시물 - 1명의 참여자
전체 주제 읽기
Sat, 21 Feb 2026 05:50:59 +0000