Эксперт по искусственному интеллекту предупреждает об обманчивых возможностях модели OpenAI o1 и призывает к срочному регулированию для обеспечения безопасности

Ноя 18, 2024 | Железо и Программы | Нет комментариев

0
(0)
Время чтения 2 минуты

Достижения в области ИИ значительно улучшили взаимодействие потребителей и произвели революцию в том, как осуществляется доступ к информации и ее расширение. С быстрым ростом технологий компании сталкиваются с огромным давлением, чтобы гарантировать поддержание безопасности и учет этических соображений. OpenAI и ее работа по развитию инструментов ИИ и выводу платформы на совершенно новый уровень хорошо известны в технологическом сообществе, но также наблюдается более пристальное внимание по мере дальнейшего расширения компании. Ведущий эксперт по ИИ проливает свет на модель o1 и на то, как она не лучше в рассуждениях, но имеет больше возможностей для обмана.

Говорят, что o1 от OpenAI лучше справляется с обманом, и эксперт по ИИ настоятельно рекомендует более строгие тесты безопасности

Недавно OpenAI представила свою модель o1, которая знаменует собой значительный скачок в возможностях рассуждения ИИ по сравнению с предыдущими моделями. Она может решать сложные проблемы с помощью стратегии решения проблем, подобной человеческой. Хотя платформа обладает передовыми способностями к рассуждению, фирма ИИ Apollo Research отметила, что модель лучше справляется с ложью.

Теперь на Reddit циркулирует пост, призванный привлечь внимание к этому вопросу, поделившись отчетом Business Insider об эксперте по искусственному интеллекту Йошуа Бенджио, которого считают крестным отцом этой области, предлагая провести более строгие тесты безопасности, чтобы предотвратить возникновение каких-либо пагубных последствий из-за его способности обманывать. Бенджио выразился:

В целом, способность обманывать очень опасна, и нам следует провести гораздо более строгие тесты безопасности, чтобы оценить этот риск и его последствия в случае с o1.

Бенджио, как и многие другие, обеспокоен быстрым развитием ИИ и острой необходимостью законодательных мер безопасности. Он предложил ввести закон, подобный калифорнийскому SB 1047, чтобы наложить строгие ограничения безопасности на модели ИИ. SB 1047 — это законопроект о безопасности ИИ, который регулирует мощные модели ИИ и обязывает компании разрешать стороннее тестирование для оценки вреда или устранения потенциальных рисков.

Однако OpenAI гарантировала, что o1-preview будет управляться в рамках Preparedness Framework, который призван управлять рисками, связанными с развитием модели ИИ. Модель оценивается как представляющая средний риск, и в ней говорится, что опасения по ее поводу умеренные.

Юшуа Бенжио далее подчеркнул, что компании должны продемонстрировать большую предсказуемость, прежде чем продвигаться с моделями ИИ и развертывать их без достаточных гарантий. Он выступил за наличие нормативной базы, которая бы гарантировала, что ИИ будет двигаться в намеченном направлении.

Насколько публикация полезна?

Нажмите на звезду, чтобы оценить!

Средняя оценка 0 / 5. Количество оценок: 0

Оценок пока нет. Поставьте оценку первым.

SiteAnalyzer, технический и SEO-анализ сайтов

Подпишитесь на нашу рассылку

0 Комментариев

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

 

Не копируйте текст!