После яркого доклада о GTC генеральный директор NVIDIA Дженсен Хуанг провел сессию вопросов и ответов, высказав множество интересных идей для обсуждения. Один из них касается решения насущных проблем, связанных с галлюцинациями ИИ и будущим общего искусственного интеллекта (AGI). С тоном уверенности Хуанг заверил технологическое сообщество, что феномен галлюцинаций ИИ, когда системы ИИ генерируют правдоподобные, но необоснованные ответы, является разрешимой проблемой. Его решение подчеркивает важность хорошо изученных и точных данных, вводимых в системы искусственного интеллекта для смягчения этих явлений. «ИИ не должен просто отвечать; он должен сначала провести исследование, чтобы определить, какой из ответов лучший», — отметил г-н Хуанг, добавив, что для каждого отдельного вопроса должно существовать правило, которое заставляет ИИ исследовать ответ. Это также относится к поисково-дополненной генерации (RAG), когда LLM извлекает данные из внешних источников, таких как дополнительные базы данных, для проверки фактов.
Еще один интересный комментарий генерального директора заключается в том, что до вершины эволюции искусственного интеллекта — общего искусственного интеллекта — осталось всего пять лет. Многие люди, работающие в сфере ИИ, разделены между временными рамками AGI. Хотя г-н Хуанг предсказал пять лет, некоторые ведущие исследователи, такие как Янн ЛеКанн из Meta , считают, что мы далеки от порога сингулярности AGI и сначала застрянем в системах искусственного интеллекта на уровне собаки/кошки. AGI уже давно является темой, вызывающей одновременно восхищение и опасения, причем дебаты часто вращаются вокруг его потенциала превосходить человеческий интеллект и этических последствий такого развития. Критики обеспокоены непредсказуемостью и неконтролируемостью ОИИ, когда он достигнет определенного уровня автономии, что поднимает вопросы о согласовании его целей с человеческими ценностями и приоритетами. Что касается сроков, никто не знает, и каждый делает свой прогноз, поэтому время покажет, кто был прав.