Перший досвід з Ollama / LLM


Схоже, я значно відстаю від загальних трендів і хайпу довкола ШІ, хоча й давно вже користуюсь цим інструментом, зокрема - засобами Duck.ai


Тільки зараз знайшов час поставити собі локально відкритий сервер Ollama, здебільшого - з метою приватного користування, без відправлення хоч й анонімних, але цілком очевидних запитів на сторонні сервери. Нижче коротенький "дамп" з цього досвіду, може комусь також згодиться.


Встановлення


Ollama - сервер з відкритим кодом, який надає API для роботи з мовними моделями від різних постачальників. Завантажити його можна з офіційного сайту:

https://ollama.com


Є також останні релізи в репозиторії на GitHub:

https://github.com/ollama/ollama/releases


Зібрати з сорсу в мене не вийшло через помилку Vulkan. Наскільки я зрозумів (з попереднього досвіду встановлення графічного редактора Zed) його API не підтримується моїм старим залізом (iMac 2011)


Вперше, я спробував поставити сервер Ollama з репозиторію Fedora:


dnf install ollama

Він працює, але модель gpt-oss не запустилась через баг з датою, дуже дивно, що в репозиторії (Fedora 43) й досі якась допотопна версія цього серверу:

https://github.com/ollama/ollama/issues/11680


Отже, збирайтесь одразу або з сорсу (якщо зможете) або з бінарників останніх релізів на GitHub - там по суті треба розпакувати теку та виконати:


bin/ollama --help

Моделі LLM


Після встановлення сервера, потрібно завантажити мовну модель. Вони бувають різні, для кожної задачі - своя спеціалізація, така спеціалізація може бути "універсальною". Для коду (в рамках тестування на Duck.ai) мені сподобались Claude Haiku та загальний GPT-4o mini. Обрати популярні моделі можна зі списку:

https://ollama.com/search


Для тестів я обрав:



Встановлюються і запускаються моделі після запуску сервера Ollama:


ollama serve

Потрібна модель вказується аргументом run, я це роблю в окремому табі (сесії) терміналу:


ollama run mistral

Щоб видалити модель і звільнити простір, виконуємо послідовність команд:


ollama list
ollama rm ID

Клієнти


Не довго обираючи, поставив зі стандартного магазина застосунків Alpaca, ця "альпака" також є на GitHub:

https://github.com/Jeffser/Alpaca


В іншому, тут що кому треба: можна прикрутити плагіни для VSCode та інших програм, або ж просто користуватись штатним CLI сервера Ollama без додаткового софту.


Посилання


Веб-адаптація цього матеріалу з коментарями на DevZone



/uk/