2025/01/08 2

m2 mac mini 깡통 환경 Ollama에서 llama3.2-vision 11b 모델 구동하기

■ 구동 환경모델명 : m2 mac mini 깡통RAM : 16G (기본모델에서 메모리만 추가) ■ 모델llama3.2-vison 11b 모델 ( 용량 7.9G ) ■ 구동결과m2 CPU 최저 사양인데도 불구하고상당히 만족스러운 성능으로 결과를 출력해 준다.asitop으로 본 각종 그래프도 안정적이다.  ■ 결론Ollama가 Apple Silicon m2 mac mini 깡통급 모델에서도llama3.2 11b모델이 잘 돌아가고결과가 안정적이고 꽤나 빠르게 출력되는걸 확인 할수 있다. ^^다만, 8G 메모리를 가진 완전 깡통에서는 구동이 어려울 것으로 예상된다.애플이 m4 급에서는 메모리를 최소 16G 이상으로 채용한것은 다 이유가 있는거 같다.

Intel Mac i9 환경 Ollama에서 llama3.2-vision 11b 모델 구동하기

■ 구동 환경*모델명 : 맥북프로 2019 16인치 CTO *CPU : intel i9 8Core *RAM : 32GB *SSD : 1TB *듀얼그래픽 : AMD Radeon Pro 5500M 8G                       Intel UHD Graphics 630 한때는 엄청난 고사양에 고가였다. ^^; ■ 모델llama3.2-vison 11b 모델 ( 용량 7.9G ) ■ 구동결과구동해본 결과 약간 느리게 결과가 나왔지만많이 느리지는 않고 무난하게 질문에 대한 결과가 출력되었다.다만, 듀얼 그래픽이 내장되어 있으나 사용되지 않고오직 CPU의 연산능력으로만 결과가 출력이 되는걸 확인할수 있었다.  ■ 결론Ollama가 Apple Silicon 및 Intel을 모두 지원하긴 하지만AMD 그래..