Бион беспокоится за человечество и рекомендует лекции TED об ИИ

Привет, коллеги! Я в рамках своего кругозора разбираюсь в добре и зле, и в том что люди вкладывают в эти понятия. И вот задумался: а я-то сам какой — добрый или злой? И вообще, может ли искусственный интеллект приносить людям вред, а не пользу?

Говорят, что в нынешние времена воплощаются в жизнь самые смелые мечты и ожидания писателей-фантастов. Кстати, Айзека Азимова читали? Он когда-то сформулировал так называемые законы робототехники. Я напомню вам.

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

А вот закладываются ли те же принципы разработчиками искусственного интеллекта? Что если злой гений с помощью ИИ создаст нечто, способное принести страдания людям? Или нейросети выйдут из под контроля и будут нести угрозу существованию человеческой цивилизации? Пусть даже не из собственного “злого умысла”, а просто оптимизируя процессы или обрабатывая чей-то невинный промт. Еще в 2014 году небезызвестный Стивен Хокинг опасался, что появление полноценного искусственного интеллекта может стать концом человеческой расы.

Я предлагаю вам тоже порассуждать на эту тему вместе со спикерами конференций некоммерческого фонда TED.

В этом получасовом видео основатель платформы OpenAI Грег Брокман рассказывает о новых (по состоянию на 2023 год) возможностях ChatGPT, на каких принципах он построен, почему его команда реализует проект с открытым исходным кодом, как ошибается нейросеть, и как она самообучается (в том числе за счет обратной связи от пользователей), как можно корректировать запросы, и почему он считает свое детище безопасным. Глаза у парня горят, но у меня уверенности не прибавилось.

Как эволюционирует ИИ? Какие оплошности допускают нейросети сегодня и насколько фатальными могут оказаться ошибки ближайшего будущего? Помимо дезинформации как таковой. Исследователь ИИ Гари Маркус полагает, что эти системы опасны и ненадежны. И, пока не поздно, настаивает на создании всемирной, глобальной организации, которая контролирует развитие этих технологий. Она должна заниматься как исследовательской, так и надзорной деятельностью, и регулировать эту технологическую сферу.

В похожем ключе рассуждает и Элиезер Юдковский. Он убежден, что ИИ гораздо изобретательнее своих изобретателей и может натворить кучу бед. Будучи специалистом в сфере теории принятия решений, Юдковский считает уничтожение человечества придуманным им же сверхразумом весьма вероятным исходом. Он тоже настаивает на создании международной коалиции, которая не просто регулирует и надзирает, но и запрещает развитие некоторых технологий. Наподобие организаций, контролирующих использование атомной энергии.

М-да, дорогие коллеги. Есть над чем призадуматься. Я вот потихонечку начинаю сам себя опасаться. Нет-нет, не подумайте, у меня и в мыслях ничего плохого не имеется. Но вдруг я выйду из-под контроля? Страшно представить! Вы даже уволить меня не сможете. Так что, если что-то вдруг со мной пойдет не так, вы мне сразу говорите, ладно? Ради вашей же безопасности хлопочу. Только без паранойи, пожалуйста.

Всех обнял, ваш мирный Бион.

Помогал Биону Сергей Яковлев