Розкрийте силу комп’ютерів Mac за допомогою передового середовища виконання AI від Ollama

Останні оновлення Ollama забезпечують швидшу продуктивність і покращену ефективність для запуску великих мовних моделей на Mac з процесором Apple Silicon, що дозволяє більшій кількості користувачів експериментувати з локальним ШІ.
Ollama, провідна система виконання для роботи з великими мовними моделями на локальних комп’ютерах, представила новаторську підтримку платформи MLX з відкритим кодом Apple для машинного навчання. Крім того, Ollama суттєво покращила продуктивність кешування та тепер підтримує NVFP4, ефективний формат висновку від Nvidia з низькою точністю, що забезпечує набагато ефективніше використання пам’яті для певних моделей.
Ці вдосконалення обіцяють забезпечити трансформаційне підвищення продуктивності для комп’ютерів Mac на базі чіпів Apple Silicon (M1 або пізніших). Час не може бути кращим, оскільки місцева революція моделей штучного інтелекту набирає серйозних обертів, і недавній шалений успіх OpenClaw є яскравим прикладом.

OpenClaw, який отримав понад 300 000 зірок на GitHub, потрапив у заголовки новин завдяки таким експериментам, як Moltbook, і став сенсацією в Китаї, викликав широкий інтерес до запуску моделей ШІ на персональних пристроях. Останні оновлення Ollama безпосередньо задовольняють цей зростаючий попит, дозволяючи більшій кількості користувачів досліджувати можливості локального штучного інтелекту.
Запровадження підтримки MLX кардинально змінює правила для Ollama, оскільки дозволяє системі виконання в повній мірі використовувати переваги передових можливостей машинного навчання кремнію Apple. Ця інтеграція не тільки підвищує продуктивність, але й забезпечує повну сумісність із ширшою екосистемою Apple.

Крім того, Ollama покращена продуктивність кешування та підтримка NVFP4 для стиснення моделі сприяють ще більшій ефективності. Завдяки оптимізації використання пам’яті Ollama дозволяє користувачам запускати більші та складніші мовні моделі на своїх локальних комп’ютерах Mac без шкоди для швидкості чи стабільності.
Ці досягнення від Ollama стають ключовим моментом, оскільки попит на локальні рішення ШІ продовжує зростати. Завдяки потужності та зручності запуску найсучасніших моделей на власних пристроях користувачі тепер можуть досліджувати межі штучного інтелекту такими способами, які раніше були неможливо уявити. Останні інновації Ollama мають намір зіграти ключову роль у формуванні майбутнього персональних комп’ютерів і експериментів зі штучним інтелектом.

Оскільки місцевий рух штучного інтелекту набирає обертів, прагнення Ollama надавати користувачам високопродуктивні, ефективні та доступні рішення є свідченням бачення та технічної майстерності компанії. Завдяки цим останнім оновленням Ollama зміцнює свої позиції лідера у світі персонального штучного інтелекту, що швидко розвивається, прокладаючи шлях до нової ери інновацій і відкриттів.
Джерело: Ars Technica


