Стартовал FractalGPT - самообучающийся ИИ на базе больших языковых моделей (LLM) и логического вывода
FractalGPT — проект самообучающегося ИИ на базе больших языковых моделей(LLM) и логического вывода (reasoning). FractalGPT задумывается нами как первый настоящий прототип AGI (Сильного ИИ).
Мнение автора может не совпадать с мнением редакции
FractalGPT призван решить проблему «галлюцинаций» нейросети. Также он будет обладать мотивацией
Наша цель
1. Создать ИИ модель лучше, чем ChatGPT. FractalGPT сможет кардинально лучше решать задачи математики, физики, понимания логики суждений и будет делать это надежнее, с прогнозируемой точностью.
2. А для ИИ сообщества создать открытую и прозрачную экосистему скиллов и ИИ моделей для настоящего дисрапшена в применении и внедрении ИИ решений для бизнеса и государства.
Вот краткий перечень принципов и компонентов, на которых FractalGPT будет построен:
1. Целеполагание (строит модель целей свою и собеседника)
2. Умение логически «мыслить»
3. Мотивация (имеет внутреннюю потребность к саморазвитию)
4. Планирование своего поведения
5. Умение выражать и испытывать эмоции
(список не полный, некоторые принципы не раскрываем)
Статус
В составе небольшой команды ML разработчиков мы уже собрали микро-MVP. Разработана принципиальная архитектура системы, построена модель функционирования. Составлен план разработки, 19го марта выпущено первое демо.
Демо
Уже опубликована первая демонстрация возможностей FractalGPT.
В работе показаны модули Fractal и GPT, немного фактологии и решение простой математической задачи.
Все, что вы увидите ниже в демо — первая версия, и это даже менее 10% MVP.
FractalGPT состоит из двух основных модулей:
это модуль Fractal и модуль GPT (Когнитрон Кибертроныч Ai)
Fractal — это движок логического вывода, вычисления и прогнозирования «эмоций», планирования действий, он также используется для дообучения GPT. Данный модуль основан на принципах самоподобия, т.е. любой вычислитель может быть частью большего вычислителя и такое масштабирование практически ничем не ограничено.
GPT — это LLM, предназначенная для генерации текста, ведения диалога. Мы используем ряд ноу-хау, чтобы повысить точность ее ответов и увеличить число «понимаемых» ею тем.
1. На первом скрине показано свойство Фактологии.
Что сделали: мы задали вопрос на знания, на который хотим получить фактологический ответ. Система приняла вопрос, обработала модулем GPT (LLM Когнитрон Кибертроныч) и выдала ответ. Система «понимает», что нужно ответить кратко и с фактом, а не длинно, не объясняя, не фантазируя, не рассуждая — и это сработало.
Предусмотрена легкая и автоматическая Расширяемость на новые домены знаний. ChatGPT в этих кейсах тоже показывает себя хорошо.
У FractalGPT соотношение качество на параметр лучше, чем у ChatGPT, тк мы используем GPT-like модель с менее чем 10 млрд. параметров.
В наших экспериментах уже достигается получение ответов сравнимых по качеству и они фактологические на некоторой общности задаваемых вопросов.
2. На 2-4 скрине показано, что свойство Учета контекста уже работает. Распознается анафора и неявная референция на объект.
3. На пятом скрине показана работа модуля Calc и способность решать математические задачи (Свойство маршрутизации тасков).
Что сделали: сформулировали задачу и написали численный пример. Система смогла решить задачу по правилам математики: посчитать правильно арифметический пример. Система «поняла», что данный запрос нужно направить в систему символьных вычислений. Важно: LLM не генерировала ответа на арифметический пример, перенаправив его в компетентный модуль.