■ 구동 환경
모델명 : m2 mac mini 깡통
RAM : 16G (기본모델에서 메모리만 추가)
■ 모델
llama3.2-vison 11b 모델 ( 용량 7.9G )
■ 구동결과
m2 CPU 최저 사양인데도 불구하고
상당히 만족스러운 성능으로 결과를 출력해 준다.
asitop으로 본 각종 그래프도 안정적이다.
■ 결론
Ollama가 Apple Silicon m2 mac mini 깡통급 모델에서도
llama3.2 11b모델이 잘 돌아가고
결과가 안정적이고 꽤나 빠르게 출력되는걸 확인 할수 있다. ^^
다만, 8G 메모리를 가진 완전 깡통에서는 구동이 어려울 것으로 예상된다.
애플이 m4 급에서는 메모리를 최소 16G 이상으로 채용한것은 다 이유가 있는거 같다.
'AI·머신러닝·딥러닝' 카테고리의 다른 글
Intel Mac i9 환경 Ollama에서 llama3.2-vision 11b 모델 구동하기 (0) | 2025.01.08 |
---|---|
ERROR: Could not find a version that satisfies the requirement tensorflow_text (from versions: none) - macOS m2 (0) | 2024.03.14 |
mac Mini m2 깡통 vs Nvidia GTX1050 Tensorflow GPU 환경 속도 비교 (3) | 2024.03.05 |
macOS Apple Silicon m1/m2/m3/m4에서 Tensorflow GPU 환경 구성하기 (0) | 2024.03.05 |
CUDA/cuDNN 설치 ( Ubuntu Desktop 22.04LTS ) (0) | 2024.03.04 |