Перед увольнением Сэма Альтмана из Open AI штатные сотрудники рассказали о прорыве в исследованиях искусственного интеллекта, который может угрожать человечеству.

Источник в компании рассказал изданию Reuters, что несколько сотрудников написали письмо совету директоров, где рассказали о новом важном прорыве в ИИ.

Проект Q*, согласно источнику, радикально отличается от GPT: системы Q* решают задачи полностью самостоятельно, оценивают обстановку, учатся и понимают опыт сделанных ошибок, подобно человеку. Несмотря на то что Q* пока решает только простые школьные задачи, сотрудники уже говорят о невероятной мощи этого ИИ и возможной опасности для человечества.

Хотя системы на базе модели GPT, вроде известного бота ChatGPT, неплохо решают математические задачи, они регулярно допускают ошибки в ответах. GPT опираются на статистические закономерности, а не на понимание. Проще говоря, со временем системы этой модели научились хорошо находить информацию, но не способны оценивать её содержимое. Поэтому ChatGPT может написать неплохой с точки зрения языка, но бессмысленный текст или сделать ошибку в математической задаче для дошкольников. Q* же ориентирован на точный ответ.

Письмо могло стать последним аргументом для увольнения Альтмана — ранее СМИ писали, что в совете директоров к главе Open AI накопились вопросы. В руководстве переживали о быстром развитии продуктов компании без оглядки на безопасность. Вероятно, именно о разработе Q* Альтман объявил на саммите АТЭС в Сан-Франциско — он обещал мировым лидерам некий прорыв, благодаря которому будут открыты новые горизонты в науке.

Подробностей о Q* пока что нет. Официально OpenAI не подтверждала существование этого проекта.

Telegram
Baza

​​Самая обсуждаемая компания мира почти развалилась за неделю. Главу создателя Chat GPT Сэма Альтмана успели уволить, устроить в Microsoft, а затем вернуть обратно.

17 ноября стало известно об увольнении главы Open AI Сэма Альтмана. Такого никто не ждал…

От Baza