Google отказалась от обещания не использовать ИИ для создания оружия

Технологии

Американская корпорация Google удалила из своих принципов разработки искусственного интеллекта формулировку, предписывающую избегать применения этой технологии в потенциально опасных для человека целях, в том числе в оружии. Внимание на это обратило Bloomberg.

На странице, где изложены принципы разработки ИИ, ранее был абзац под названием «Приложения ИИ, которые мы не будем развивать». Сейчас он отсутствует, а сама статья обновлена 19 часов назад, убедился корреспондент РБК.

Среди таких приложений перечислялись и «технологии, которые наносят или могут нанести общий вред», отмечает Bloomberg со ссылкой на скриншоты из веб-архивов. Указаний на это теперь в статье нет.

rbc.group

В Минздраве разработали Кодекс этики применения искусственного интеллекта Общество

rbc.group

В ответ на просьбу прокомментировать изменения политики представитель Google прислал агентству ссылку на заявление из блога компании, опубликованное 4 февраля.

«Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека», — говорится в заявлении старшего вице-президента Google Джеймса Манийки и главы лаборатории Google по разработке ИИ DeepMind.

«Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — подчеркнули топ-менеджеры.

Израиль применил искусственный интеллект «Евангелие» для ударов по ХАМАС Политика

По словам одного из бывших руководителей команды Google по этике при разработке ИИ, Маргарет Митчелл, удаление пункта о технологиях, способных нанести вред, может повлиять на типы работы, которую будет вести корпорация.

«Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей», — сказала она.

Один из главных спонсоров нового президента США Дональда Трампа, член его администрации и основатель компаний Tesla и SpaceX Илон Маск, еще в 2015 году подписал открытое письмо с предупреждением о гонке вооружений с искусственным интеллектом. Под ним подписались более 1 тыс. известных ученых, бизнесменов и экспертов в области искусственного интеллекта, в том числе профессор физики Стивен Хокинг.

Авторы письма утверждали, что искусственный интеллект может быть использован на поле боя, чтобы сделать его более безопасным для военнослужащих, но наступательное вооружение с применением искусственного разума приведет к росту потерь человеческих жизней.

Чат-боты с искусственным интеллектом уже способны помогать пользователям создавать биологическое оружие, писал Bloomberg. Биохимик Рокко Касагранде предупреждал Белый дом о способности ИИ идентифицировать биологические агенты. К таким выводам он пришел после тестирования чат-бота Claude, который предложил использовать патогены в ракетах.

Читайте РБК в Telegram.

Поделиться Поделиться Вконтакте Одноклассники Telegram

РБК в Telegram

На связи с проверенными новостями

Аэропорт Сухума принял первый за более чем 30 лет пассажирский лайнер. Видео

Новые власти Сирии назвали условие сохранения баз России

ЦБ объяснил бабушкам, что такое цифровой рубль

Спецпосланник Трампа оценил санкции против России «всего лишь на тройку»

Десятки Jaguar нашли на кладбище машин в Великобритании. Фото

Новые правила покупки жилья за маткапитал. Что изменилось

РБК запускает винный салон. Расписание

ЦБ назвал самый доходный актив в рублях по итогам 2024 года

Читайте РБК в Telegram! Подборка наших каналов

В МГУ назвали две главные проблемы зумеров

Депутата генерала Гурулева предложили вывести из комитета по обороне

У дилеров скопилось свыше 300 тыс. нераспроданных китайских машин

Авторы Теги

Татьяна Зыкина

Источник

Игры Xrust представлено множество игр любых жанров, начиная разнообразными аркадами и поиском предметов, и заканчивая стратегиями и симуляторам, в которых каждый сможет найти игру себе по душе.
Оцените статью
Игры Хруст
Добавить комментарий