Миссия
МИССИЯ
Формирование новой бизнес элиты Казахстана
Миссия
ЦЕЛЬ
Концентрация и развитие бизнес лидеров по всей республике
adress
Сейфуллина,498, 9-й этаж.
Телефон
+7 (708) 246 50 65

«Мы не осознаем все риски AI» - открытое письмо разработчиков Искуственного интеллекта

Новости5 июня 2024, 14:16
«Мы не осознаем все риски AI» - открытое письмо разработчиков Искуственного интеллекта
Illustration: DaVinci AI

Сотрудники компаний OpenAI и Google DeepMind выступили с обращением – они предупреждают о рисках индустрии искусственного интеллекта в открытом письме: «отсутствие надзора за безопасностью может стать критичным».

Группа нынешних и бывших сотрудников известных компаний, занимающихся искусственным интеллектом, опубликовала открытое письмо, в котором предупредила об отсутствии контроля за безопасностью в отрасли и призвала усилить защиту информаторов.

Письмо, в котором содержится призыв к «праву предупреждать об искусственном интеллекте», является одним из самых громких публичных заявлений об опасностях ИИ со стороны сотрудников этой, как правило, секретной отрасли

Письмо подписали одиннадцать нынешних и бывших сотрудников OpenAI, а также двое нынешних или бывших сотрудников Google DeepMind, один из которых ранее работал в Anthropic.

Компании, занимающиеся искусственным интеллектом, обладают закрытой информацией о возможностях и ограничениях своих систем,

адекватности их защитных мер и уровнях риска различных видов вреда», — говорится в письме. «Однако в настоящее время у них слабые обязательства по обмену этой информацией с правительствами, а не с гражданским обществом.

Мы не думаем, что можно рассчитывать на то, что они все поделятся этим добровольно

Компания OpenAI уже ответила, заявив, что у нее есть такие возможности, как горячая линия для сообщения о проблемах в компании, и что она не выпускает новые технологии до тех пор, пока не будут приняты соответствующие меры безопасности. Google ответил несколько позже:

«Мы согласны с тем, что строгие дебаты имеют решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру».

Бум развития ИИ в последние годы усилил опасения в отношении этой технологии и заставил регулирующие органы изо всех сил пытаться догнать новые достижения. Исследователи и сотрудники предупреждают об отсутствии надзора, поскольку

инструменты Искусственного интеллекта усугубляют существующий социальный вред и создают совершенно новые риски

«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники -те немногие, кто может привлечь их к ответственности перед обществом. Однако широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения».

Такие компании, как OpenAI, также применяют агрессивную тактику, чтобы помешать сотрудникам свободно говорить о своей работе. На прошлой неделе Vox сообщил, что

OpenAI заставляла сотрудников, покидающих компанию, подписывать документы о неразглашении. Сэм Альтман, генеральный директор OpenAI, извинился после публикации отчета, заявив, что изменит процедуру увольнения

Письмо появилось после того, как два ведущих сотрудника OpenAI, соучредитель Илья Суцкевер и ведущий исследователь безопасности Ян Лейке, ушли из компании месяц назад. Лейке после ухода заявил, что OpenAI отказалась от мер безопасности в пользу «выгодных продуктов».

AI наука

Новости по теме

Новости партнёров