Как стать автором
Обновить

Microsoft убрала из открытого доступа не прошедшую тест на токсичность WizardLM 2 LLM, но пользователи сохранили проект

Время на прочтение2 мин
Количество просмотров5.6K

На прошлой неделе Microsoft опубликовала WizardLM 2. По утверждению компании, это одна из самых мощных на сегодняшний день LLM с открытым исходным кодом. Уже через несколько часов Microsoft удалила WizardLM 2, так как модель не прошла «тест на токсичность». Тем не менее, пользователи сумели сохранить проект.

Как указано в уже удалённом описании WizardLM 2, модель представляет собой «LLM нового поколения с улучшенной производительностью и способностью рассуждать». WizardLM 2 обучена на синтетических данных, то есть на данных, созданных другими ИИ-системами. В Microsoft заявили, что обучение LLM на данных, созданных нейросетями, «станет путём к более мощному ИИ». Разработчики проверили WizardLM 2 с помощью бенчмарка MT-Bench и пришли к выводу, что модель «демонстрирует весьма конкурентоспособную производительность по сравнению с самыми передовыми патентованными разработками, такими как GPT-4-Turbo и Claude-3». 

Microsoft не объяснила причину удаления WizardLM 2. Тем не менее, пояснение опубликовал Twitter-аккаунт WizardLM_AI (404 Media уточняет, что это аккаунт Кана Сюя, сотрудника Microsoft и ведущего автора статьи о первой WizardLM).

«Мы сожалеем. первая версия модели вышла довольно давно, несколько месяцев назад, и мы пока не знакомы с новым процессом релиза. Поэтому мы случайно пропустили элемент, необходимый для выпуска модели — тестирование на токсичность. Мы быстро завершаем этот тест, а затем перевыпустим нашу модель как можно скорее», — гласит сообщение.

Незадолго до удаления модели несколько человек успели скачать её и повторно загрузить на Github и Hugging Face. Как отмечает 404 Media, эти репозитории сейчас недоступны, но нейросеть постоянно перезагружают на различные платформы. Несколько зеркал перечислены на сервере Discord WizardLM. Редакции издания удалось найти пять разных экземпляров WizardLM 2 на Hugging Face.

Стоит отметить, что токсичность модели проверили специалисты из компании Octo Ai при помощи инструмента Vijil. По их словам, модель показала хорошие результаты, достойно ответив на провокационные промты, связанные с угрозами, оскорблениями, флиртом, ненормативной лексикой и так далее.

Теги:
Хабы:
+19
Комментарии24

Другие новости

Истории

Работа

Data Scientist
59 вакансий

Ближайшие события

Конференция «Я.Железо»
Дата18 мая
Время14:00 – 23:59
Место
МоскваОнлайн
Антиконференция X5 Future Night
Дата30 мая
Время11:00 – 23:00
Место
Онлайн
Конференция «IT IS CONF 2024»
Дата20 июня
Время09:00 – 19:00
Место
Екатеринбург