«Мы не осознаем все риски AI» - открытое письмо разработчиков Искуственного интеллекта
Сотрудники компаний OpenAI и Google DeepMind выступили с обращением – они предупреждают о рисках индустрии искусственного интеллекта в открытом письме: «отсутствие надзора за безопасностью может стать критичным».
Группа нынешних и бывших сотрудников известных компаний, занимающихся искусственным интеллектом, опубликовала открытое письмо, в котором предупредила об отсутствии контроля за безопасностью в отрасли и призвала усилить защиту информаторов.
Письмо, в котором содержится призыв к «праву предупреждать об искусственном интеллекте», является одним из самых громких публичных заявлений об опасностях ИИ со стороны сотрудников этой, как правило, секретной отрасли
Письмо подписали одиннадцать нынешних и бывших сотрудников OpenAI, а также двое нынешних или бывших сотрудников Google DeepMind, один из которых ранее работал в Anthropic.
Компании, занимающиеся искусственным интеллектом, обладают закрытой информацией о возможностях и ограничениях своих систем,
адекватности их защитных мер и уровнях риска различных видов вреда», — говорится в письме. «Однако в настоящее время у них слабые обязательства по обмену этой информацией с правительствами, а не с гражданским обществом.
Мы не думаем, что можно рассчитывать на то, что они все поделятся этим добровольно
Компания OpenAI уже ответила, заявив, что у нее есть такие возможности, как горячая линия для сообщения о проблемах в компании, и что она не выпускает новые технологии до тех пор, пока не будут приняты соответствующие меры безопасности. Google ответил несколько позже:
«Мы согласны с тем, что строгие дебаты имеют решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру».
Бум развития ИИ в последние годы усилил опасения в отношении этой технологии и заставил регулирующие органы изо всех сил пытаться догнать новые достижения. Исследователи и сотрудники предупреждают об отсутствии надзора, поскольку
инструменты Искусственного интеллекта усугубляют существующий социальный вред и создают совершенно новые риски
«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники -те немногие, кто может привлечь их к ответственности перед обществом. Однако широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения».
Такие компании, как OpenAI, также применяют агрессивную тактику, чтобы помешать сотрудникам свободно говорить о своей работе. На прошлой неделе Vox сообщил, что
OpenAI заставляла сотрудников, покидающих компанию, подписывать документы о неразглашении. Сэм Альтман, генеральный директор OpenAI, извинился после публикации отчета, заявив, что изменит процедуру увольнения
Письмо появилось после того, как два ведущих сотрудника OpenAI, соучредитель Илья Суцкевер и ведущий исследователь безопасности Ян Лейке, ушли из компании месяц назад. Лейке после ухода заявил, что OpenAI отказалась от мер безопасности в пользу «выгодных продуктов».