Разработчик ChatGPT призвал регулировать ИИ, если что-то «пойдет не так»

Технологии

Сэм Олтмен

Сферу искусственного интеллекта (ИИ) необходимо регулировать, заявил глава стартапа OpenAI, разработавшего чат-бот ChatGPT Сэм Олтмен, сообщает The New York Times.

«Я думаю, что, если эта технология пойдет не так, все может пойти совсем не так. И мы хотим громко заявить об этом. Мы хотим сотрудничать с правительством, чтобы этого не произошло», — сказал Олтмен, выступая на слушаниях в конгрессе США.

Глава стартапа отметил, что, по мнению разработчиков, преимущества, которые дает ИИ, превышают риски, но обеспечение безопасности важно и для деятельности разработчиков.

adv.rbc.ru

Олтмен предложил создать агентство, которое бы лицензировало разработку крупных моделей ИИ, разрабатывало для них правила и тестирования.

adv.rbc.ru

ChatGPT обучали с помощью массива текстов из интернета и общения с живыми пользователями. Чат-бот в том числе способен вести диалог, сочинять стихи и прозу, резюмировать научные статьи и обрабатывать изображения по запросу пользователей.

Автор книги Sapiens сравнил ChatGPT c оружием массового поражения Технологии и медиа

Опасения из-за распространения ИИ не раз выражали как власти, так и представители бизнеса. В мае президент США Джо Байден и вице-президент Камала Харрис провели встречу с представителями IТ-индустрии, где обсуждалась данная тема. На ней присутствовал Олтмен, а также глава корпорации Microsoft Сатья Наделла и генеральный директор компаний Google Сундар Пичаи. Байден заявил, что компании «несут фундаментальную ответственность за обеспечение безопасности и надежности их продуктов до внедрения и распространения».

Читайте на РБК Pro Tiffany во Вьетнаме. Почему Бернар Арно делает ставку на этот регион Плюс 35%: почему и как растет рынок электронного документооборота Банки Кипра и ОАЭ больше не рады россиянам. Что делать владельцам счетов Битва на ложках: как вывести видеоигру на рынок Китая

В апреле основатель Tesla, SpaceX и владелец Twitter Илон Маск заявил, что без государственного надзора быстро развивающийся ИИ может стать «опасностью для общества» и реальной угрозой для будущего человечества. До этого он стал одним из подписантов открытого письма на сайте организации Future of Life, в котором говорилось о необходимости приостановить разработку и обучение нейросетей. 

Авторы Теги

Лилия Пашкова

Источник

Игры Xrust представлено множество игр любых жанров, начиная разнообразными аркадами и поиском предметов, и заканчивая стратегиями и симуляторам, в которых каждый сможет найти игру себе по душе.
Оцените статью
Игры Хруст
Добавить комментарий