티스토리 뷰
요즘 기술 트렌트 및 화두는 AI이다. AI는 Aritificial Intellgence 의 약자로 우리말로는 인공지능이라고 한다. 사용자 입장에서 인공지능은 단순히 내가 요청하는 것들을 쉽게 알려주고 생성해 주는 정말 편리한 도구이다. 그러나, IT를 하는 엔지니어 입장에서는 어떻게 AI를 하기 위한 시스템을 구축하고, 어떤 서비스에 AI를 접목하거나 활용할 수 있는지를 끈임없이 연구하고 공부해야 한다.
요즘 IT 관련 세미나나 행사를 가면 AI는 빠질수 없는 기술 화두 중 하나이다. 최근 AI에 대한 기술들을 살펴보면서 일단 모르는 용어라도 확인하고, 어딘가에 잘 정리해 두면 좋지 않을까? 라는 생각이 들어 정말 오랜만에 블로그에 몇 글자 적어본다.
인프라 분야에서 AI 용어들
PIM(Processing in Memory)
PIM (Processing-In-Memory) 메모리 반도체는 컴퓨터 시스템에서 중앙 처리 장치(CPU)와 메모리 간의 데이터 전송 병목 현상을 해소하기 위해 개발된 기술로 기존의 컴퓨터 아키텍처에서는 CPU가 데이터를 처리하기 위해 메모리에서 데이터를 가져와야 하는데, 이로 인해 데이터 이동에 따른 지연이 발생하는 병목 현상을 해소하기 위해 CPU와 메모리를 통합시켜 데이터 처리와 메모리 액세스를 동시에 수행할 수 있도록 한다. 즉, CPU와 메모리가 하나의 칩 안에 함께 존재하며, 데이터 처리와 메모리 액세스가 병행되어 전체적인 성능을 향상시킨다. PIM 기술은 데이터 중심 컴퓨팅(Data-Centric Computing) 환경에서 특히 유용하며, 빅 데이터, 인공 지능 및 기계 학습과 같은 데이터 집약적인 응용 프로그램에서 성능 향상을 이끌어내는 데 기여할 것으로 기대된다. (출처: https://namu.wiki/w/PIM)
PIM은 다음 블로그에서 자세하고 친철하게 설명해주니 참고하면 좋을 듯하다.
DPU
DPU는 Data Processing Unit의 약자로, 데이터 처리 장치를 의미한다. CPU와 GPU 외에 데이터 센터에서 네트워크, 스토리지, 보안 등 데이터 관련 작업을 처리하도록 설계된 특수 프로세서로 DPU는 CPU가 다른 작업을 수행할 수 있도록 도와 데이터 센터의 효율성을 높이는 역할을 한다.
DPU 관련 내용은 다음 블로그를 참조하면 좋다.
RDMA
RDMA는 Remote Direct Memory Access의 약자로, 운영체제나 CPU를 거치지 않고 네트워크를 통해 한 컴퓨터의 메모리에서 다른 컴퓨터의 메모리로 데이터를 직접 전송하는 기술이다. 이를 통해 데이터 전송 속도를 높이고 CPU 오버헤드를 줄여 고성능 컴퓨팅 환경에 적합하다.
RDMA는 다음 블로그를 참조하자!
- RDMA와 InfiniBand(인피니밴드) https://everenew.tistory.com/490
- WikiFedia https://en.wikipedia.org/wiki/Remote_direct_memory_access
- RDMA https://blog.skby.net/rdma-remote-direct-memory-access/
HBM
HBM은 High Bandwidth Memory의 약자로, 우리말로 고대역폭 메모리라고 한다. 고대역폭 메모리는 기존의 DRAM보다 더 넓은 대역폭을 제공하여 데이터 처리 속도를 크게 향상시킨 메모리 반도체 기술로 특히 인공지능, 고성능 컴퓨팅, 그래픽 카드 등 대용량 데이터 처리와 빠른 데이터 전송이 필요한 분야에서 사용된다.
HBM 관련 내용은 나무위키에 자세하게 있으므로 해당 내용을 보자!
인프라 운영과 관련된 AI 용어들
MLOps
MLOps는 머신 러닝 모델의 개발, 배포, 운영 및 유지 관리를 자동화하고 효율화하는 일련의 프로세스 및 관행을 의미한다. DevOps 원칙을 머신 러닝에 적용하여 모델의 라이프사이클 전반을 관리하고 데이터 과학 팀과 운영 팀 간의 협업을 강화하는 것을 목표로 한다.
MLOps는 다음 사이트에서 자세한 내용을 볼 수 있다.
- 머신러닝운영이란 무엇인가요? https://www.ibm.com/kr-ko/topics/mlops
AI 자체 용어들
생성형 AI
생성형 AI는 텍스트, 이미지, 음악, 코드 등 새로운 콘텐츠를 만들어내는 인공지능 기술을 의미한다. 기존 데이터를 학습하여 이를 바탕으로 새로운 콘텐츠를 창작하는 능력을 가지고 있으며, 딥러닝 기술을 기반으로 다양한 분야에서 활용될 수 있다.
생성형 AI를 잘 설명해 놓은 나무위키를 참조하자!
- 나무위키 생성형 인공지능 https://namu.wiki/w/%EC%83%9D%EC%84%B1%ED%98%95%20%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5
추론형 AI
추론형 AI는 인공지능 모델이 학습된 지식을 바탕으로 새로운 데이터에서 결론을 도출하고 예측을 생성하는 능력을 의미한다. 즉, 주어진 정보를 분석하고 이해하여 논리적인 판단이나 결정을 내리는 과정이다.
추론형 AI는 다음 사이트를 참조하자
- AI 추론이란 무엇인가요? t.ly/h7WpY
LLM
LLM은 Large Language Model의 약자로 한국어로는 대형 언어 모델 또는 거대 언어 모델이라 불리며, 수많은 파라미터(보통 수십억 웨이트 이상)를 보유한 인공 신경망으로 구성되는 언어 모델이다. 자기 지도 학습이나 반자기지도학습을 사용하여 레이블링되지 않은 상당한 양의 텍스트로 훈련된다. LLM은 2018년 즈음에 모습을 드러냈으며 다양한 작업을 위해 수행된다. 이전의 특정 작업의 특수한 지도 학습 모델의 훈련 패러다임에서 벗어나 자연어 처리 연구로 초점이 옮겨졌다.
LLM 관련 내용은 다음 사이트를 참조한다.
- 위키백과 대형언어모델 t.ly/qulaB
KV Cache
KV 캐시(KV cache)는 추론 시에 중간 단계에서 계산된 key(K)와 value(V)를 저장해두고 재사용하는 메커니즘으로 이를 통해 텍스트를 생성할 때 상당한 속도 향상을 얻을 수 있다고 한다. KV cache 용어는 LLM에서 다음 텍스트를 추론할때 사용되며, 이때 많은 메모리를 사용하게 되는데, 이때 캐시 메모리를 공유하여 사용하면 효율적이라고 한다.
KV Cache 설명은 다음 블로그들에 자세하게 설명되어 있으면 참조하자!
- LLM 인퍼런스 훍어보기 https://dytis.tistory.com/55?category=1139923
- KV Cache & Paged Attention https://gangjeong22.tistory.com/228
- Understanding and Coding the KV Cache in LLMs from Scratch https://junhan-ai.tistory.com/573?category=1219916
학습
- Total
- Today
- Yesterday
- Swift
- 뉴트론
- 쿠버네티스
- 클라우드
- 오픈쉬프트
- 우분투
- Redhat
- install
- Network
- 네트워크
- 컨테이너
- ubuntu
- 후기
- neutron
- 파이썬
- sdn
- 김미경
- openstack
- 세미나
- 명령어
- cpu
- command
- NOVA
- 오픈스택
- Python
- 설치
- OVN
- 하둡
- 레드햇
- Java
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |