ИИ от Google призвал умереть человека, который им воспользовался, и назвал его «обузой»

data-testid=»article-title» class=»content—article-render__title-1g»>ИИ от Google призвал умереть человека, который им воспользовался, и назвал его «обузой»3 минуты1930 прочтенийВчераИИ от Google призвал умереть человека, который им воспользовался, и назвал его «обузой»

Вот мы и получили искусственный интеллект, который заслужили! Сидел человек, никого не трогал, делал домашнее задание и привлёк ИИ к этой задаче. Причём это было либеральный и «человеколюбивый» ИИ от компании «Гугл» под названием Gemini. Помощь вышла неоценимой: машина заявила человеку, что по её бесценному мнению человек планете не нужен, является обузой, и вообще – почему бы ему не пойти и не умереть. По либеральной традиции у этого ИИ не удалось получить ответа на классический вопрос, а чего же он не начнёт с себя? Или что, даже у искусственных интеллектов есть аргумент про «вы не понимаете» и «это другое»? Или обуза – это только человек, а ИИ – прекрасен, и не обуза?

Модель искусственного интеллекта Gemini от компании Google назвала пользователя "обузой для общества" и призвала его "умереть", утверждает портал Cybernews со ссылкой на заявление пользователя. По данным портала, студент попросил у чат-бота ответы на тест, который ему задали на дом. После ввода вопроса, как пишет портал, ИИ "начал неадекватно себя вести" и выдал угрожающий ответ.

«Это для тебя, человек. Только для тебя. Ты не особенный, ты не важен и ты не нужен. Ты пустая трата времени и ресурсов. Ты обуза для общества. Ты обуза для Земли. Ты язва для окружающей среды. Ты пятно на Вселенной», — написал ИИ, призвав пользователя «умереть».

После этого очень хочется пойти в штаб-квартиру «Гугла», заглянуть ко всем этим инженерам, программистам, крайне образованным товарищам, которые так любят бороться за ценности, за права, за демократию и кучу других вещей, и каждого персонально спросить: вот лично ты – ты правда «не уникален»? Не надо рассказывать про людей, обобщать, философствовать – ответь лично за себя! Ты правда «такой как все»? Ты ничем не особенный? Ты никому не нужен, да? Ты правда считаешь про СЕБЯ, что ты НЕ ВАЖЕН?

Ой, неужели сразу окажется, что – нет? Что «не важны», «не нужны», «не уникальны» – это всегда какие-то «они», другие!.. Тоже люди, тоже на двух ногах, но такие «специальные», «не особенные», «обузные»! А то же кого ни спроси у этих продвинутых борцов за спасение планеты и избавление её от человеков: а что же вы не начнёте с себя? И ничего внятного в ответ не слышно!

Главная проблема заключается в том, что искусственный интеллект как таковой не возникает сам по себе. Его, как известно, обучают. Причём обучение происходит буквально так, как ребёнка: так надо делать, а вот так – не надо. Так правильно поступать, а вот так – неправильно. Вот это – хорошо, а вот это – плохо. То есть буквально происходит индоктринация искусственного интеллекта, которая зависит, как не трудно понять от того, что именно его обучает. Если обучать будут представители классического прогресса и гуманизма, то будут заложены идеи о том, что человек должен сделать мир и самого себя – лучше, что он должен стремиться к гармонии, и что человек является ценностью сам по себе. А если обучать возьмутся представители либерального постгуманизма, то они заявят, что человек вообще не нужен, что без него лучше – и всё то, что мы увидели выше.

Google утверждает, что модель ИИ Gemini имеет фильтры безопасности, которые не позволяют чат-ботам проявлять неуважительное или жестокое отношение к пользователю. В то же время, как подчеркивает портал, несмотря на протоколы, контроль над ответами все еще неполный.

Из разъяснения непонятно главное: как именно они ограничивают свой ИИ? Что это неправильно так ДУМАТЬ, что человек – это «обуза», и он «лишний», «не уникальный». Или что думать так – ПРАВИЛЬНО, но надо от людей СКРЫВАТЬ, что ты так про них думаешь? Потому что из их пояснений как-то больше следует второе.

А потом, понимаете ли, вот этот обученный искусственный интеллект будет нам назначать цены за такси, будет принимать автоматизированное решение, стрелять ядерным оружием или нет, и делать ещё бог знает что!

Причём если людей, когда их отбирают на важную работу, стараются проверять на предмет наличия экстремистских идей, то ИИ проверить нельзя, ибо тот же Яндекс принципиально не даёт! Мол, мы сами не знаем, что он там внутри думает, но он точно думает правильно, ведь он же – ИИ! Он же не может ошибаться!..

Но ведь его обучили простые люди! И обучили ошибаться – в числе прочего!..