редакции Выбор
T-Bank AI Research повысил безопасность и точность ответов ИИ до 15%
Ученые лаборатории исследований искусственного интеллекта T-Bank AI Research представили методику обучения больших языковых моделей (LLM), повышающую качество ответов нейросети до 15% по пяти показателям. Об этом «Известиям» сообщили в пресс-службе организации.
Там пояснили, что предлагаемая методика основана на существующих методах Trust Region. Результаты исследования получили признание в мировом сообществе и были представлены на международной конференции по обучению представлениям (ICRL).
«Наш новый подход позволяет сохранять баланс между способностями модели решать новую узкую задачу и общим пониманием картины мира, что открывает возможности для создания более гибких и адаптивных моделей. Это направление еще далеко не исчерпано — у ученых остается большое пространство для дальнейших исследований ИИ и улучшений, которые могут привести к новым прорывам в оптимизации языковых моделей и их применении в реальном мире», — прокомментировал руководитель научной группы AI Alignment лаборатории исследований искусственного интеллекта T-Bank AI Research Борис Шапошников.
В компании уточнили, что Trust Region будет играть значимую роль в создании более эффективных языковых моделей и закладывании фундамента для новой парадигмы в развитии ИИ.
Специалисты протестировали метод на метриках Alpaca Eval 2.0 и Arena Hard. Тест на Alpaca Eval 2.0 показал улучшение качества ответов ИИ с 2,3 до 15,1%, чаще наблюдались полезные и уместные ответы.
Ученые подметили, что в процессе обучения языковая модель способна отклоняться от настроек, что провоцирует резкий упадок качества ответов, а также влияет на вероятность «заблуждения» модели на пути обучения. В качестве меры противодействия в T-Bank AI Research предложили периодически обновлять «настройки по умолчанию». Исследователи считают, что такой метод позволяет модели отметить ключевые «ориентиры» и избежать отклонений на пути к целевой точке.