дом
tech
Мета Лама: Все, что вам нужно знать об открытой генеративной модели ИИ
Как и все крупные технологические компании в наши дни, у Meta есть своя флагманская генеративная модель искусственного интеллекта под названием Лама. Лама отличается от других крупных моделей тем, что является "открытой", что означает, что разработчики могут загружать и использовать ее по своему усмотрению (с определенными ограничениями). Это в отличие от моделей, таких как "Клод" от Anthropic, GPT-4o от OpenAI (используемый для ChatGPT) и "Джемини" от Google, к которым можно получить доступ только через API.
В интересах предоставления разработчикам выбора, Meta также сотрудничает с поставщиками, включая AWS, Google Cloud и Microsoft Azure, чтобы сделать облачные версии Ламы доступными. Кроме того, компания выпустила инструменты, предназначенные для упрощения настройки и настройки модели.
Что такое Лама?
Лама - это семейство моделей, а не только одна:
- Лама 8B
- Лама 70B
- Лама 405B
Последние версии - Лама 3.1 8B, Лама 3.1 70B и Лама 3.1 405B, которые были выпущены в июле 2024 года. Они обучены на веб-страницах на разных языках, общедоступных кодах и файлах в Интернете, а также на синтетических данных (т.е. данных, сгенерированных другими моделями искусственного интеллекта).
Лама 3.1 8B и Лама 3.1 70B - это компактные модели, предназначенные для работы на устройствах от ноутбуков до серверов. Лама 3.1 405B, с другой стороны, является масштабной моделью, требующей (в отсутствие некоторых модификаций) оборудования для центров обработки данных. Лама 3.1 8B и Лама 3.1 70B менее функциональны, чем Лама 3.1 405B, но работают быстрее. Они являются "сгущенными" версиями 405B, оптимизированными для минимального потребления памяти и задержек.
Все модели Лама имеют окна контекста из 128 000 токенов. (В науке о данных токены - это подразделенные биты исходных данных, например слоги "вентилятор", "тас" и "тик" в слове "фантастический".) Контекст модели, или окно контекста, относится к входным данным (например, тексту), которые модель рассматривает перед генерацией вывода (например, дополнительного текста). Длинный контекст может предотвратить модели "забывать" содержание недавних документов и данных, а также ошибочно отклоняться от темы и неверно экстраполировать.
Эти 128 000 токенов примерно равны 100 000 словам или 300 страницам, что соответствует примерной длине произведений "Грозовой перевал", "Путешествия Гулливера" и "Гарри Поттер и узник Азкабана".
Что может делать Лама?
Как и другие модели генеративного искусственного интеллекта, Лама может выполнять различные вспомогательные задачи, такие как программирование и ответы на основные математические вопросы, а также сводку документов на восьми языках (английском, немецком, французском, итальянском, португальском, хинди, испанском и тайском). Большинство текстовых рабочих процессов - подумайте об анализе файлов вроде PDF и таблиц - находятся в его ведомстве; ни одна из моделей Лама не может обрабатывать или генерировать изображения, хотя это может измениться в ближайшем будущем.
Все последние модели Лама могут быть настроены для использования сторонних приложений, инструментов и API для выполнения задач. Они обучены изначально использовать Brave Search для ответов на вопросы о недавних событиях, API Wolfram Alpha для запросов, связанных с математикой и наукой, и интерпретатор Python для проверки кода. Кроме того, Meta утверждает, что модели Лама 3.1 могут использовать определенные инструменты, которые ранее не видели (но насколько они могут надежно использовать эти инструменты - другой вопрос).
Где я могу использовать Ламу?
Если вы хотите просто поболтать с Ламой, то она используется в опыте чат-бота Meta AI на Facebook Messenger, WhatsApp, Instagram, Oculus и Meta.ai.
Разработчики, работающие с Ламой, могут загружать, использовать или настраивать модель на большинстве популярных облачных платформ. Meta утверждает, что у нее более 25 партнеров, размещающих Ламу, включая Nvidia, Databricks, Groq, Dell и Snowflake.
Некоторые из этих партнеров создали дополнительные инструменты и услуги на основе Ламы, включая инструменты, позволяющие моделям ссылаться на конфиденциальные данные и позволяющие им работать с меньшей задержкой.
Meta предлагает использовать его более маленькие модели, Ламу 8B и Ламу 70B, для общих приложений, таких как приведение в действие чат-ботов и создание кода. Лама 405B, по словам компании, лучше оставить для дистилляции моделей - процесс передачи знаний от большой модели к более маленькой и эффективной модели - и создания синтетических данных для обучения (или настройки) альтернативных моделей.
Важно, что лицензия Лама ограничивает способы развертывания модели: Разработчики приложений с более чем 700 миллионами ежемесячных пользователей должны запросить специальную лицензию у Meta, которую компания предоставит по своему усмотрению.
Какие инструменты предлагает Meta для Ламы?
Помимо Ламы, Meta предоставляет инструменты, предназначенные для сделать использование модели более "безопасным":
- Llama Guard, модераторская платформа
- Prompt Guard, инструмент для защиты от атак ввода подсказок
- CyberSecEval, набор оценки рисков в области кибербезопасности
Лама Гард пытается обнаружить потенциально проблемное содержимое, поданное на вход или сгенерированное моделью Лама, включая контент, связанный с преступной деятельностью, эксплуатацией детей, нарушениями авторских прав, ненавистью, самоповреждением и сексуальным насилием. Разработчики могут настроить категории заблокированного контента и применять блокировку ко всем языкам, которые поддерживает Лама изначально.
Как и Лама Гард, Prompt Guard может блокировать текст, предназначенный для Ламы, но только текст, предназначенный для "атаки" на модель и заставления ее вести себя нежелательным образом. Meta утверждает, что Лама Гард может защищать от явно вредоносных подсказок (т.е. попыток обойти встроенные фильтры безопасности Ламы) в дополнение к подсказкам, содержащим "введенные входы".
Что касается CyberSecEval, это не столько инструмент, сколько сборник показателей для измерения безопасности модели. CyberSecEval может оценить риск, которым обладает модель Ламы (по крайней мере, согласно критериям Meta) для разработчиков приложений и конечных пользователей в областях "автоматизированной социальной инженерии" и "масштабирования атак в области кибербезопасности".
Ограничения модели Лама
Лама имеет определенные риски и ограничения, как и все модели генеративного искусственного интеллекта.
Например, неясно, обучала ли Meta Ламу на защищенном авторским правом контенте. Если да, пользователи могут нести ответственность за нарушение, если они, не подозревая, используют защищенный авторским правом отрывок, который модель воспроизвела.
По сообщениям агентства Reuters, Meta однажды обучала свой ИИ на авторских книгах, несмотря на предупреждения собственных юристов, Компания контроверзиально обучает свои ИИ на постах, фотографияях и заголовках в Instagram и Facebook, и делает сложным отказ пользователей. Кроме того, Meta, наряду с OpenAI, является объектом текущего иска, поданного авторами, включая комика Сару Сильверман, из-за предполагаемого несанкционированного использования авторских данных для обучения моделей.
Программирование - другая область, где стоит с осторожностью обращаться к использованию Ламы. Это потому, что Лама, подобно своим коллегам генеративного искусственного интеллекта, может создавать ошибочный или небезопасный код.
Как всегда, лучше иметь человеческого эксперта, оценивающего любой созданный ИИ код перед его включением в сервис или программное обеспечение.