Новый клип британской культовой рок-группы The Beatles, распавшейся еще в 1970-м, появился в ноябре этого года. В композиции Now And Then задействован весь состав группы, хотя Джона Леннона и Джорджа Харрисона давно нет в живых. Пол Маккартни и Ринго Старр при работе над клипом прибегли к помощи искусственного интеллекта, воссоздавшего голос Леннона и игру Харрисона в максимально оригинальном звучании. Эту композицию прозвали "самой последней песней The Beatles".
Тот же искусственный интеллект (ИИ) стал одной из причин 118-дневной забастовки работников американской телеиндустрии, которые добились от крупных киностудий выполнения своих требований: повышения зарплат и гарантий защиты от несанкционированного использования изображений и видео, созданных ИИ. Теперь зарплатный фонд будет увеличен на миллиард долларов, а актеров не будут заменять "цифровыми двойниками".
В обеих этих громких историях упоминается искусственный интеллект. И если в первом случае ИИ оказался полезным инструментом, то во втором он уже представляется некой угрозой, которая, по мнению людей, может как минимум лишить их части работы. Искусственный интеллект разрабатывается человечеством давно, но активно использоваться начал сравнительно недавно. И важно понимать, что ИИ – это не единый механизм, управляемый одним центром.
Это множество независимых друг от друга систем с разными функциями, созданных разными разработчиками. Сфера применения тоже самая разная: искусственный интеллект встроен в коды поисковых систем, маркетплейсов, приложений для мобильных телефонов и массу других программ, которыми ежедневно пользуются люди. Алгоритмы многих автоматизированных систем на производственных предприятиях тоже управляются искусственным интеллектом. И этот стремительно разрастающийся масштаб применения ИИ начинает пугать людей. Эксперты со всего мира все чаще говорят о возможных угрозах использования "сверхинтеллекта".
Опасения в экспертных кругах усилила недавняя история вокруг американской компании OpenAI. Именно она создала ChatGPT на основе искусственного интеллекта, который может генерировать тексты на любую тему, отвечать на вопросы, даже поддерживать непринужденную беседу с человеком, и все это на разных языках. ChatGPT появился всего год назад и приобрел колоссальную популярность. 18 ноября этого года совет директоров OpenAI уволил гендиректора компании Сэма Альтмана. А спустя всего пять дней восстановил в должности. Причины таких пертурбаций в руководстве компании так и не объяснили. Впрочем, информационное агентство Reuters, ссылаясь на свои источники в OpenAI, выдвинуло версию, что увольнение может быть связано с корпоративными разногласиями по поводу разработок нового искусственного интеллекта, который якобы может чуть ли не угрожать человечеству. Речь идет о некоем проекте Q*. Он, согласно утечкам, может стать настоящим прорывом в работе искусственного интеллекта, способного выполнять массу задач, не уступая умственным возможностям человека, а то и значительно превосходя их.
Один из самых популярных изобретателей современности, основатель Tesla, SpaceX и других компаний Илон Маск считает, что к разработкам искусственного интеллекта нужно подходить с осторожностью. Иначе, как однажды пошутил Маск на встрече с премьер-министром Великобритании Риши Сунаком, человечество окажется в фильмах Джеймса Кэмерона и столкнется с роботами типа терминатора.
О безопасности искусственного интеллекта НВ поговорило с Ириной Якутенко, научным журналистом и популяризатором науки.
– До изобретения антибиотиков никто не мог представить, что могут делать антибиотики. А какое-то время вообще никто не знал, что есть бактерии. Поэтому мы не могли представить, что антибиотики будут одними из тех средств, которые радикально продлят продолжительность человеческой жизни на планете и улучшат наше глобальное состояние здоровья. То же самое и здесь, тем более когда мы говорим о так называемом сильном искусственном интеллекте. Под этим термином подразумевается интеллект, который сможет не какую-то конкретную задачу решать: писать тексты, рисовать картинки или помогать нам в каком-то приборе, что-то делать, а в общем сможет решать самые разные задачи, как люди. Мы же можем и одно, и другое, и третье делать. Когда и если такая штука будет создана, мы понятия не имеем, какие у нее будут возможности, желания, намерения и так далее.
– Но вот сейчас уже есть какие-то очевидные плохие стороны этого. Например, создание фейков. Можно ли с этим как-то уже бороться или нет?
– Фейки – это еще один хороший пример того, что мы не предсказывали. Сейчас все опасаются, что искусственный интеллект станет чем-то вроде Skynet, уничтожит все человечество. А вот люди, которые относятся к так называемым фиктивным альтруистам, как считается, часть из них были в борде или, по крайней мере, часть борда сочувствовала, этот сильный искусственный интеллект должен действовать только на благо человечества, и мы ему запретим то-се, пятое-десятое. Но вот смотрите, у нас есть искусственный интеллект, который не собирает бомбы, не производит новые наркотики, но с его помощью просто написать фальшивую диссертацию, сделать дипфейк и очернить человека, разрушить его карьеру. То есть невозможно уберечься.
От чего-то мы такого самого страшного очевидного можем попытаться прописать какие-то правила, но при желании сделать что-нибудь плохое люди сделают это. Сейчас у нас есть этот путь к AGI, фактически только у OpenAI есть что-то, что больше всего похоже. Но, может быть, появятся и какие-то другие компании, которые сделают что-то подобное. И вот тут возникнет интересная история: мы хотим отдать этот искусственный интеллект в руки государства, или оставить его в руках частных компаний, или как? То есть мне кажется, что тут есть о чем подумать. И надо будет об этом думать. Но пока еще рано. К сожалению, тут мы не можем заранее ничего сделать, потому что мы не понимаем, как оно все будет. Но когда оно будет, да, надо будет думать. И, к сожалению, глядя на то, как сейчас развивается политическая ситуация, у меня нет уверенности, что это будет какое-то оптимальное решение. Но как минимум будут страны, которые не будут подчиняться этим правилам. Можно предположить, что эти страны, если они сами дойдут до этих технологий, скажут: "Нет, и мы вот себе сделаем такой AGI, и плевать на вашу ООН или какую-нибудь организацию борцов с искусственным интеллектом, мы в нее не вступим, ничего не ратифицируем, а будем сами все делать".