Мета Лама: Все, что вам нужно знать об открытой генеративной модели ИИ

Как и все крупные технологические компании в наши дни, у Meta есть своя флагманская генеративная модель искусственного интеллекта под названием Лама. Лама отличается от других крупных моделей тем, что является "открытой", что означает, что разработчики могут загружать и использовать ее по своему усмотрению (с определенными ограничениями). Это в отличие от моделей, таких как "Клод" от Anthropic, GPT-4o от OpenAI (используемый для ChatGPT) и "Джемини" от Google, к которым можно получить доступ только через API.

В интересах предоставления разработчикам выбора, Meta также сотрудничает с поставщиками, включая AWS, Google Cloud и Microsoft Azure, чтобы сделать облачные версии Ламы доступными. Кроме того, компания выпустила инструменты, предназначенные для упрощения настройки и настройки модели.

Что такое Лама?

Лама - это семейство моделей, а не только одна:

  • Лама 8B
  • Лама 70B
  • Лама 405B

Последние версии - Лама 3.1 8B, Лама 3.1 70B и Лама 3.1 405B, которые были выпущены в июле 2024 года. Они обучены на веб-страницах на разных языках, общедоступных кодах и файлах в Интернете, а также на синтетических данных (т.е. данных, сгенерированных другими моделями искусственного интеллекта).

Лама 3.1 8B и Лама 3.1 70B - это компактные модели, предназначенные для работы на устройствах от ноутбуков до серверов. Лама 3.1 405B, с другой стороны, является масштабной моделью, требующей (в отсутствие некоторых модификаций) оборудования для центров обработки данных. Лама 3.1 8B и Лама 3.1 70B менее функциональны, чем Лама 3.1 405B, но работают быстрее. Они являются "сгущенными" версиями 405B, оптимизированными для минимального потребления памяти и задержек.

Все модели Лама имеют окна контекста из 128 000 токенов. (В науке о данных токены - это подразделенные биты исходных данных, например слоги "вентилятор", "тас" и "тик" в слове "фантастический".) Контекст модели, или окно контекста, относится к входным данным (например, тексту), которые модель рассматривает перед генерацией вывода (например, дополнительного текста). Длинный контекст может предотвратить модели "забывать" содержание недавних документов и данных, а также ошибочно отклоняться от темы и неверно экстраполировать.

Эти 128 000 токенов примерно равны 100 000 словам или 300 страницам, что соответствует примерной длине произведений "Грозовой перевал", "Путешествия Гулливера" и "Гарри Поттер и узник Азкабана".

Что может делать Лама?

Как и другие модели генеративного искусственного интеллекта, Лама может выполнять различные вспомогательные задачи, такие как программирование и ответы на основные математические вопросы, а также сводку документов на восьми языках (английском, немецком, французском, итальянском, португальском, хинди, испанском и тайском). Большинство текстовых рабочих процессов - подумайте об анализе файлов вроде PDF и таблиц - находятся в его ведомстве; ни одна из моделей Лама не может обрабатывать или генерировать изображения, хотя это может измениться в ближайшем будущем.