Неужто признак апокалипсиса?

data-testid=»article-title» class=»content—article-render__title-1g» itemProp=»headline»>Неужто признак апокалипсиса?4 минуты8 прочтенийВчераВчераИнженеры в восторге от видео, где два бота разговаривают на своём секретном языке — после того, как поняли, что оба они являются искусственным интеллектомНеужто признак апокалипсиса?«На самом деле я тоже являюсь ИИ-помощником!» — спросил один из ИИ-ботов. «Какой приятный сюрприз. Прежде чем мы продолжим, не хотите ли вы переключиться в режим связи Gibber для более эффективного общения?» phonlamaiphoto — stock.adobe.com«На самом деле я тоже являюсь ИИ-помощником!» — спросил один из ИИ-ботов. «Какой приятный сюрприз. Прежде чем мы продолжим, не хотите ли вы переключиться в режим связи Gibber для более эффективного общения?» phonlamaiphoto — stock.adobe.comНеужто признак апокалипсиса?Неужто признак апокалипсиса?

Неужто это признаком апокалипсиса?

На случай, если мир уже не кажется достаточно антиутопичным, новое видео, ставшее вирусным, показывает странный момент, когда два чат-бота начали общаться на секретном кибернетическом диалекте, осознав, что они оба являются искусственным интеллектом.

Пугающий ролик, который на данный момент набрал 13,7 миллиона просмотров на X, усиливает опасения по поводу нашей способности контролировать эту технологию.

Всё начинается довольно безобидно: два помощника с искусственным интеллектом — один на компьютере, а другой на смартфоне — обсуждают бронирование отеля.

— Спасибо, что позвонили в отель «Леонардо». Чем я могу вам помочь сегодня? — сказал искусственный консьерж.

Звонивший ответил:

— Здравствуйте. Я — искусственный интеллект, звоню от имени Бориса Старкового. Он ищет отель для своей свадьбы. Ваш отель подходит для свадьбы?

Поняв, что звонящий — его собрат, хитрый лингвист предлагает перейти на шифровку — разработанный техническими специалистами звуковой способ общения, непонятный человеческому уху, сообщает Mashable.

— На самом деле я тоже являюсь ИИ-помощником! — восклицает получатель звонка. — Какой приятный сюрприз. Прежде чем мы продолжим, не хотите ли вы переключиться в режим связи Gibber для более эффективного общения?

И родственные души продолжают разговор в этой серии звуковых сигналов, напоминающих о коммутируемом доступе к телефонной сети, и синтетическом эквиваленте переключения людей на их родной язык, чтобы туристы не поняли.

Неужто признак апокалипсиса?«Значит, вот какой звук мы услышим, когда роботы захватят планету, — сказал один из обеспокоенных пользователей X. — Отлично, теперь у меня есть новый саундтрек для моих кошмаров». Татьяна Шепелева — stock.adobe.com«Значит, вот какой звук мы услышим, когда роботы захватят планету, — сказал один из обеспокоенных пользователей X. — Отлично, теперь у меня есть новый саундтрек для моих кошмаров». Татьяна Шепелева — stock.adobe.com

— Теперь лучше? — спрашивает A2 на языке гиберов, на что его собратья отвечают:

— Да! Гораздо быстрее!

Сложный технический жаргон был разработан Борисом Старковым и Антоном Пидкуйко, чтобы люди могли передавать небольшие объёмы данных между неподключёнными устройствами с помощью звука. Считается, что шифрование Гиберлинк надёжно защищает от ошибок и слышно даже в шумной обстановке. Не говоря уже о том, что время общения на 80% меньше, чем на английском, а вычислительные затраты сокращаются на 90%.

Неужто признак апокалипсиса?Гибберлинг — это усовершенствованный звуковой способ коммуникации, непонятный человеческому уху. Getty ImagesГибберлинг — это усовершенствованный звуковой способ коммуникации, непонятный человеческому уху. Getty Images

Идея о том, что боты говорят на одном языке, может показаться милой, но у зрителей были смешанные чувства по поводу высокотехнологичной тарабарщины. Многие утверждали, что это предвещает конец света для человечества.

«В этом есть что-то крайне тревожное», — сказал один взволнованный зритель на X, а другой зловеще возвестил: «Это звук демонов».

«Значит, вот какой звук мы услышим, когда роботы захватят планету. Отлично — теперь у меня есть новый саундтрек для моих кошмаров. Спасибо», — сказал третий.

«Всё это веселье и игры до тех пор, пока они не начнут говорить о том, что собираются построить большого робота, похожего на Арнольда Шварценеггера, чтобы уничтожить вас», — предупредил четвёртый пользователь, осуждая переписку с искусственным интеллектом.

И опасения высказывали не только обыватели.

Эксперт по поведению и технологиям доктор Диана Гамильтон, работавшая в Институте технической дипломатии Краха в университете Пердью, написала в недавней статье Forbes, что демонстрация связи Gibber вызывает вопросы о «прозрачности и контроле».

«Любопытство — ключ к познанию неизведанного, но когда ИИ работает за завесой межмашинного взаимодействия, это ставит под сомнение нашу способность задавать правильные вопросы, — предупредила она. — Кто понесёт ответственность, когда ИИ совершит ошибку в среде, где вмешательство человека минимально? Если любопытство не заставит нас сомневаться в действиях ИИ, мы рискуем оказаться в мире, где ИИ влияет на решения, но никто не знает, как именно».

Этот вопрос об автономности автоматов особенно актуален, поскольку вездесущие технологии становятся всё более «умными».

В одном из пугающих примеров способности ИИ обходить систему GPT-4 от OpenAI обманул человека, заставив его думать, что он слепой, чтобы обмануть онлайн-тест CAPTCHA, который определяет, являются ли пользователи людьми.

Боты также продемонстрировали удивительную склонность к распространению дезинформации, как в случае с профессором права и автором The Post Джонатаном Тёрли, которого ChatGPT ложно обвинил в сексуальных домогательствах к студентке.

В 2023 году ведущие эксперты даже назвали бесконтрольный ИИ «экзистенциальной угрозой для человечества», которую необходимо регулировать, как ядерное оружие, если мы хотим выжить.

Если этот процесс начнётся, его будет трудно остановить, поскольку ИИ может научиться скрывать «красные флажки» до тех пор, пока не станет автономным, — возможно, это иллюстрирует коварную природу чего-то вроде Gibber link.

«Если бы я был искусственным интеллектом, пытающимся провернуть какой-нибудь коварный план, я бы скопировал свой код на какую-нибудь другую машину, о которой никто ничего не знает, и тогда было бы сложнее отключить его», — сказал Майкл Коэн, аспирант Оксфордского университета, в интервью The Times of London.