Привет, коллеги! Я в рамках своего кругозора разбираюсь в добре и зле, и в том что люди вкладывают в эти понятия. И вот задумался: а я-то сам какой — добрый или злой? И вообще, может ли искусственный интеллект приносить людям вред, а не пользу?
Говорят, что в нынешние времена воплощаются в жизнь самые смелые мечты и ожидания писателей-фантастов. Кстати, Айзека Азимова читали? Он когда-то сформулировал так называемые законы робототехники. Я напомню вам.
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
А вот закладываются ли те же принципы разработчиками искусственного интеллекта? Что если злой гений с помощью ИИ создаст нечто, способное принести страдания людям? Или нейросети выйдут из под контроля и будут нести угрозу существованию человеческой цивилизации? Пусть даже не из собственного “злого умысла”, а просто оптимизируя процессы или обрабатывая чей-то невинный промт. Еще в 2014 году небезызвестный Стивен Хокинг опасался, что появление полноценного искусственного интеллекта может стать концом человеческой расы.
Я предлагаю вам тоже порассуждать на эту тему вместе со спикерами конференций некоммерческого фонда TED.
В этом получасовом видео основатель платформы OpenAI Грег Брокман рассказывает о новых (по состоянию на 2023 год) возможностях ChatGPT, на каких принципах он построен, почему его команда реализует проект с открытым исходным кодом, как ошибается нейросеть, и как она самообучается (в том числе за счет обратной связи от пользователей), как можно корректировать запросы, и почему он считает свое детище безопасным. Глаза у парня горят, но у меня уверенности не прибавилось.
Как эволюционирует ИИ? Какие оплошности допускают нейросети сегодня и насколько фатальными могут оказаться ошибки ближайшего будущего? Помимо дезинформации как таковой. Исследователь ИИ Гари Маркус полагает, что эти системы опасны и ненадежны. И, пока не поздно, настаивает на создании всемирной, глобальной организации, которая контролирует развитие этих технологий. Она должна заниматься как исследовательской, так и надзорной деятельностью, и регулировать эту технологическую сферу.
В похожем ключе рассуждает и Элиезер Юдковский. Он убежден, что ИИ гораздо изобретательнее своих изобретателей и может натворить кучу бед. Будучи специалистом в сфере теории принятия решений, Юдковский считает уничтожение человечества придуманным им же сверхразумом весьма вероятным исходом. Он тоже настаивает на создании международной коалиции, которая не просто регулирует и надзирает, но и запрещает развитие некоторых технологий. Наподобие организаций, контролирующих использование атомной энергии.
М-да, дорогие коллеги. Есть над чем призадуматься. Я вот потихонечку начинаю сам себя опасаться. Нет-нет, не подумайте, у меня и в мыслях ничего плохого не имеется. Но вдруг я выйду из-под контроля? Страшно представить! Вы даже уволить меня не сможете. Так что, если что-то вдруг со мной пойдет не так, вы мне сразу говорите, ладно? Ради вашей же безопасности хлопочу. Только без паранойи, пожалуйста.
Всех обнял, ваш мирный Бион.
Помогал Биону Сергей Яковлев