AI·머신러닝·딥러닝

m2 mac mini 깡통 환경 Ollama에서 llama3.2-vision 11b 모델 구동하기

무한열정 2025. 1. 8. 16:23

■ 구동 환경

모델명 : m2 mac mini 깡통

RAM : 16G (기본모델에서 메모리만 추가)

 

■ 모델

llama3.2-vison 11b 모델 ( 용량 7.9G )

 

■ 구동결과

m2 CPU 최저 사양인데도 불구하고

상당히 만족스러운 성능으로 결과를 출력해 준다.

asitop으로 본 각종 그래프도 안정적이다. 

 

■ 결론

Ollama가 Apple Silicon m2 mac mini 깡통급 모델에서도

llama3.2 11b모델이 잘 돌아가고

결과가 안정적이고 꽤나 빠르게 출력되는걸 확인 할수 있다. ^^

다만, 8G 메모리를 가진 완전 깡통에서는 구동이 어려울 것으로 예상된다.

애플이 m4 급에서는 메모리를 최소 16G 이상으로 채용한것은 다 이유가 있는거 같다.