본문 바로가기
컴퓨터 활용(한글, 오피스 등)/기타

ai 사용하는 수학적 모델

by 3604 2026. 3. 31.
728x90

AI 모델, 특히 트랜스포머(Transformer) 구조를 구동할 발생하는 수학적 연산의 종류 따라 하드웨어 부품들을 특화시키면 시스템의 효율이 극대화됩니다. 부품이 어떤 수학적 기능을 전담하는지 '연산 특성' 중심으로 설명해 드립니다.


1. 행렬 곱셈(Matrix Multiplication) 특화: NPU & GPU

AI 모델 연산의 90% 이상을 차지하는 고밀도 행렬 연산 담당합니다.

·        수학적 기능: $C = A \times B$ 같은 거대한 행렬의 곱셈과 덧셈(MAC: Multiply-Accumulate).

·        부품의 역할: * GPU: 수천 개의 코어가 동시에 부동소수점(FP16, BF16) 연산을 수행하는 '범용 행렬 계산기'입니다.

o   NPU: AI 전용으로 설계되어, 불필요한 기능을 빼고 오직 행렬 곱셈만을 위한 연산 유닛(Systolic Array ) 집적하여 전력 대비 성능(진동수당 연산량) 극대화합니다.


2. 데이터 전송 대역폭 특화: HBM (High Bandwidth Memory)

연산 장치가 아무리 빨라도 데이터를 공급하지 못하면 무용지물입니다. 데이터 로딩 병목 해결합니다.

·        수학적 기능: 연산 장치로 파라미터(Weight) 전달하는 데이터 처리량(Throughput) 최적화.

·        부품의 역할: * 트랜스포머의 Attention(어텐션) 메커니즘은 단어 생성 시마다 수십~수백 GB 파라미터를 읽어야 합니다.

o   HBM 연산기 바로 옆에 수직으로 쌓여 있어, 일반 DRAM보다 수십 넓은 통로로 데이터를 '폭포수'처럼 쏟아부어 연산기가 쉬지 않게 합니다.


3. 벡터 활성화 함수 특화: CPU & 특수 연산기

단순 반복이 아닌, 복잡한 수식이나 조건부 연산 처리합니다.

·        수학적 기능: * Softmax, Layer Normalization: 지수 함수($e^x$) 루트($\sqrt{x}$) 연산이 포함된 복잡한 벡터 연산.

o   비선형 활성화 함수: ReLU, GeLU 값이 특정 임계치를 넘는지 판단하는 조건부 연산.

·        부품의 역할: * CPU: 복잡한 명령어를 빠르게 처리하는 ALU(산술논리장치) 통해 행렬 연산 사이사이에 들어가는 정밀한 수치 조절과 제어 흐름을 담당합니다.


4. 문맥 유지 캐싱 특화: SDRAM (LPDDR / DDR5)

대화의 흐름을 잃지 않기 위한 임시 기억 담당합니다.

·        수학적 기능: KV Cache (Key-Value Cache) 저장. 이전 대화 내용의 행렬 결과값을 다시 계산하지 않도록 보관합니다.

·        부품의 역할: * 문장이 길어질수록 기억해야 정보가 기하급수적으로 늘어납니다. HBM 용량이 작고 비싸기 때문에, 상대적으로 용량이 SDRAM 이전 대화의 연산 결과값들을 쌓아두고 필요할 꺼내 씁니다.


5. 모델 저장 고속 로딩 특화: HBF & HBS

수조 개의 파라미터를 영구 저장하고 즉시 복구하는 기능을 수행합니다.

·        수학적 기능: 비휘발성 상태의 대규모 파라미터 웨이트(Weights) 관리.

·        부품의 역할: * HBF (High Bandwidth Flash): 모델 전체를 저장하는 '창고'입니다. 전원이 켜지자마자 테라바이트의 가중치 데이터를 메모리 계층으로 초고속 전송하여 AI '부팅 시간' 단축합니다.

o   HBS (High Bandwidth Storage): 대규모 RAG(검색 증강 생성) 시스템에서 외부 지식 데이터를 수학적으로 검색(Vector Search) 병목 없는 데이터 공급을 책임집니다.


💡 요약: AI 구동 부품별 수학적 전공

부품 수학적 전공 분야 비유
NPU / GPU 거대 행렬 곱셈 (Dot Product) 계산기 ()
HBM 초당 테라바이트급 데이터 공급 고속도로 (통로)
CPU 복잡한 공식 제어 (Softmax) 두뇌 (판단)
SDRAM 이전 연산 결과값 보관 (KV Cache) 메모장 (기억)
HBF / HBS 대규모 가중치 저장 로드 도서관 (지식창고)

이렇게 부품들이 각자의 수학적 역할에 최적화될 , 우리는 스마트폰에서도 쾌적하게 챗봇과 대화하거나 복잡한 이미지를 실시간으로 생성할 있게 됩니다.

 

AI 반도체의 부품은 LLM(거대언어모델) 구동될 발생하는 서로 다른 수학적 난제 해결하기 위해 설계되었습니다. 질문하신 내용을 바탕으로 부품별 전담 수학 영역 비교표로 정리해 드립니다.


AI 부품별 수학적 전담 영역 비교

부품 (Hardware) 전담 수학 영역 (Mathematical Task) 해결하는 구체적 문제 비유
GPU / NPU 선형 대수 (Linear Algebra) 수조 개의 파라미터 행렬 곱셈(GEMM) 덧셈 처리 거대한 계산기
HBM 확률적 데이터 흐름 (Throughput) 초당 테라바이트의 가중치(Weight) 벡터 공급 초고속 고속도로
CPU 이산 수학 제어 (Logic/Control) 연산 순서 결정, 조건문(If-Else), 토큰화(Tokenizing) 지휘자
SDRAM (DDR) 시계열 데이터 보관 (Temporal State) KV 캐시 보관 (이전 대화 맥락의 수치 데이터 유지) 메모장
HBF / HBS 대규모 상수 집합 (Static Weights) 모델 전체의 상수(Constant) 영구 저장 로드 거대 도서관

부품별 상세 수학적 해결 방식

1. GPU & NPU: 행렬 곱셈 (Matrix Multiplication)

트랜스포머 모델의 핵심은 "단어와 단어 사이의 관계" 숫자로 곱하는 것입니다.

·        해결하는 수학: $Y = WX + b$ (선형 변환).

·        특화 포인트: 수만 개의 연산기(ALU) 동시에 병렬로 계산하여, 인간이 평생 걸릴 행렬 계산을 0.001 만에 끝냅니다.

2. HBM (High Bandwidth Memory): 벡터 공급 (Vector Streaming)

아무리 계산이 빨라도 재료(숫자) 늦게 오면 소용없습니다.

·        해결하는 수학: 데이터 전송 대역폭($BW$) 최적화.

·        특화 포인트: 연산 장치 바로 옆에서 수천 개의 통로(I/O) 통해 Attention 계산에 필요한 벡터들을 즉시 쏟아부어 연산기의 유휴 시간을 없앱니다.

3. CPU: 비선형 복잡 수식 (Non-linear & Complex Functions)

행렬 곱셈 외에도 복잡한 수식이 필요합니다.

·        해결하는 수학: Softmax(지수함수), GELU(활성화 함수), 정밀한 부동소수점 제어.

·        특화 포인트: 단순 반복이 아닌, '만약 값이 0보다 작으면 0으로 처리하라' 같은 복잡한 논리 구조와 정밀한 수치 해석을 담당합니다.

4. SDRAM: 상태 저장 (State Maintenance)

AI 문장을 잊어버리지 않게 합니다.

·        해결하는 수학: 재귀적 데이터의 임시 보관.

·        특화 포인트: KV Cache라는 기술을 통해, 앞서 계산된 행렬 결과값을 버리지 않고 용량이 SDRAM 보관하여 다음 단어 예측 다시 계산하는 수고를 덜어줍니다.

5. HBF & HBS: 거대 파라미터 관리 (Large-scale Constants)

수천억 개의 고정된 숫자(파라미터) 관리합니다.

·        해결하는 수학: 비휘발성 대용량 데이터의 무결성 유지 고속 이동.

·        특화 포인트: 모델이 커질수록 메모리(DRAM) 담을 없으므로, **HBF(고대역폭 플래시)** 필요할 때마다 특정 수학적 블록을 메모리로 빠르게 밀어 넣어 전체 모델이 동작하게 합니다.


요약하자면:

AI 시스템은 계산(GPU/NPU), 공급(HBM), 논리(CPU), 기억(SDRAM), **저장(HBF)** 톱니바퀴처럼 맞물려 거대한 수학 문제를 실시간으로 풀어내는 구조입니다.

 

728x90