Ollama एक उपयोगी उपकरण है जो आपको अपने Mac पर विभिन्न LLMs को स्थानीय रूप से चलाने की अनुमति देता है। इसके शानदार ओपन सोर्स विकास के धन्यवाद, आपको केवल अपने कंप्यूटर के CMD में विभिन्न कमांड दर्ज करने होते हैं ताकि आप सभी प्रकार की जानकारी प्राप्त कर सकें। इसके अलावा, Apple के ऑपरेटिंग सिस्टम की शक्ति उच्च गति पर उत्तर उत्पन्न करने में सक्षम है।
अपने मैक पर Meta Llama 3 और अन्य मॉडल चलाएं
Ollama के साथ, Phi 3, Mistral, Gemma, Llama 2, और Llama 3 जैसे मॉडलों की शक्ति का उपयोग करना आपके कंप्यूटर पर बहुत आसान है। यदि आप Meta का सबसे उन्नत LLM उपयोग करना चाहते हैं, तो बस अपने कंप्यूटर के CMD में ollama run llama3 दर्ज करें ताकि स्थापना शुरू हो। हालाँकि, यह सुनिश्चित करना महत्वपूर्ण है कि आपके हार्ड ड्राइव में पर्याप्त खाली जगह हो, क्योंकि यह भाषा मॉडल सुचारू रूप से चलने के लिए कई GB की खाली जगह की आवश्यकता करेगा।
बहुत अधिक संदर्भ के साथ बातचीत
Ollama के साथ, अतिरिक्त संदर्भ के लिए पिछले प्रश्न और उत्तर संग्रहीत करना हमेशा संभव है। अन्य ऑनलाइन LLMs जैसे कि ChatGPT और Copilot के समान, यह उपकरण उत्पन्न परिणामों में इस संदर्भ का ध्यान रखेगा। इस तरह, आप प्रत्येक भाषा मॉडल द्वारा प्रदान की गई शानदार संभावनाओं का पूरा फायदा उठा सकते हैं।
अपने मैक पर Ollama के लिए एक दृश्य इंटरफ़ेस स्थापित करें
अपने मैक पर एक दृश्य इंटरफ़ेस स्थापित करके Ollama का उपयोग और भी सहज बनाएं। ऐसा करने के लिए, बस Docker का उपयोग करें और कमांड Docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main चलाएं। इसके बाद, आप इस उपकरण का उपयोग ऐसा इंटरफ़ेस के माध्यम से कर सकते हैं जो कि कमांड कंसोल की तुलना में देखने में अधिक आसान है।
Ollama को मैक के लिए डाउनलोड करें ताकि इसकी सभी विशेषताओं का लाभ उठाएं और किसी भी LLM को स्थानीय रूप से बिना किसी कठिनाई के चलाएं।
कॉमेंट्स
बहुत अच्छा