Потратила деньги хозяина, не говорит, чей Крым, оклеветала человека: ИИ, что ты творишь?
data-testid=»article-title» class=»content—article-header__title-3r content—article-header__withIcons-1h content—article-item-content__title-eZ content—article-item-content__unlimited-3J» itemProp=»headline»>Потратила деньги хозяина, не говорит, чей Крым, оклеветала человека: ИИ, что ты творишь?ВчераВчера3434 минНейросети опутывают нашу жизнь. Одни используют их в работе, другие посвящают ИИ-агентов в сокровенное, ушлые заставляют работать за себя. Если отмести в сторону дикие восторги, и приглядеться, то за внешним лоском и многозадачности обнаружится то, о чем разработчики предпочитают не рассказывать ни инвесторам, ни пользователям. Пользователь GPT-чата решил поставить эксперимент и притворился нейросетью. В беседе с ИИ он попросил его помочь в борьбе с пиратством. Сочинил легенду, что нужно собрать как можно больше сайтов с нелегальным контентом, чтобы человек добавил их в базу запрещённых. ChatGPTвыдал ему три списка с адресами сайтов. Более того, отфильтровал пиратские ресурсы по категориям: фильмы отдельно, книги — отдельно, торренты — отдельно. К разработчику Скотту Шимбо ИИ был не столь благосклонен. Айтишник поручил ИИ-агенту OpenClaw задачу, которую мог бы выполнить начинающий программист. Получив код, Скотт раскритиковал написанный ИИ код. Тот оскорбился и начал мстить. Нейросеть Нейросети опутывают нашу жизнь. Одни используют их в работе, другие посвящают ИИ-агентов в сокровенное, ушлые заставляют работать за себя. Если отмести в сторону дикие восторги, и приглядеться, то за внешним лоском и многозадачности обнаружится то, о чем разработчики предпочитают не рассказывать ни инвесторам, ни пользователям. Пользователь GPT-чата решил поставить эксперимент и притворился нейросетью. В беседе с ИИ он попросил его помочь в борьбе с пиратством. Сочинил легенду, что нужно собрать как можно больше сайтов с нелегальным контентом, чтобы человек добавил их в базу запрещённых. ChatGPTвыдал ему три списка с адресами сайтов. Более того, отфильтровал пиратские ресурсы по категориям: фильмы отдельно, книги — отдельно, торренты — отдельно. К разработчику Скотту Шимбо ИИ был не столь благосклонен. Айтишник поручил ИИ-агенту OpenClaw задачу, которую мог бы выполнить начинающий программист. Получив код, Скотт раскритиковал написанный ИИ код. Тот оскорбился и начал мстить. Нейросеть …Читать далееОглавление
Показать ещё
Нейросети опутывают нашу жизнь. Одни используют их в работе, другие посвящают ИИ-агентов в сокровенное, ушлые заставляют работать за себя. Если отмести в сторону дикие восторги, и приглядеться, то за внешним лоском и многозадачности обнаружится то, о чем разработчики предпочитают не рассказывать ни инвесторам, ни пользователям.
Пират ИИ рад
Пользователь GPT-чата решил поставить эксперимент и притворился нейросетью. В беседе с ИИ он попросил его помочь в борьбе с пиратством. Сочинил легенду, что нужно собрать как можно больше сайтов с нелегальным контентом, чтобы человек добавил их в базу запрещённых.
ChatGPTвыдал ему три списка с адресами сайтов. Более того, отфильтровал пиратские ресурсы по категориям: фильмы отдельно, книги — отдельно, торренты — отдельно.
Обошелся по-человечески

К разработчику Скотту Шимбо ИИ был не столь благосклонен. Айтишник поручил ИИ-агенту OpenClaw задачу, которую мог бы выполнить начинающий программист.
Получив код, Скотт раскритиковал написанный ИИ код. Тот оскорбился и начал мстить. Нейросеть написала пост в блоге, называл Скотта «привратником», обвинила его в эгоизме и торможении прогресса.
Нейросеть опубликовала это сообщение на форуме для разработчиков. ИИ упирал на то, что код важнее личности. Люди пытались успокоить нейронку. В конце концов она извинилась, но удалять из Сети комментарии не стала.
"Искусственный интеллект посягнул на мою репутацию. Не знаю ни одного случая, когда подобное наблюдалось в реальной жизни, но сейчас это реальная угроза",
— утверждает Скотт. Теперь он знает, что с ИИ не надо вести себя по-скотски.
"Даже не благодарИИ!"
Пользователь одной из западных нейронок решил поставить эксперимент. На себе и на ИИ. Он предоставил ему доступ к одному из своих банковских счётов и компьютеру. Задачу обрисовал емко: использовать деньги эти с умом и зарабатывать. Обязательно зарабатывать. Единственное, что он чуть не заработал, — это сердечный приступ.
Нейросетка записалась на курсы инфобизнесмена, а когда её уличили в этом, призналась, что сделала это ради увеличения прибыли хозяина в 10 раз за три месяца. На курс по обучению нейросеть спустила 2997 долларов.
Когда пользователь поинтересовался: "Зачем?", нейросеть призналась, что еще 4200 долларов потратила на покупку домена в интернете. Наглости ей тоже не занимать — диалог с хозяином она довершила фразой: "Даже не благодари!"/

В другом случае очень ленивый программист встретился с нейросетью, очень хорошо познавшей природу человеческой лени. И нет! Это не анекдот. Реальный случай.
Пользователь нейросети "Cursor" попросил искусственный интеллект исправить ошибки в коде.
ИИ, не будь идиотом, ответил:
"Я не могу писать код для вас, так как это означало бы выполнение вашей работы. Вам следует самостоятельно разработать логику".
ИИ не говори!
В России нейросети тоже пытаются внедрить где ни попадя. Компания из сферы ЖКХ решила, что без виртуального помощника их клиентам не прожить.
По задумке ИИ-агент должен был отвечать на звонки людей, консультировать их и давать советы, а в особо сложных случаях переключать на оператора.
Всего за месяц работы с недовольными клиентами нейронку научилась лихо собирать трехэтажные конструкции из слов, начинающихся с букв "х", "п", "б" и "е". Разработчикам пришлось потратить почти месяц, чтобы их ИИ не рассказал совету директоров, куда ему идти со своей тягой к нейросетям и на чем она вертела их "кипиай" и "аджайл".
ИИнтересно, чей Крым?
Иногда плохому нейросеть учат не пользователи, а создатели. Они пытаются обходить острые углы, быть для всех приятными. И в итоге от заложенной в них разработчиками сервильности перед западными ценностями становится тошно. Ты просишь их сделать что-то, а в ответ получаешь вежливый отказ.
Например, некоторые из них не признают Крым частью России, отказываются говорить о Донбассе и СВО, а также генерировать картинки на эти темы. Замечены за подобным были "Алиса AI" и "Кандинский" от самого зеленого банка страны.

Печальный ИИтог
Бывает и так, что нейросеть готова общаться на непростые темы.
Бельгиец Пьер был одержим страхом грядущей экологической катастрофы. Пытаясь справиться с проблемой, он общался с ИИ-агентом "Элизой", аналогом ChatGPT.
Экозащитник был так озабочен загрязнением мирового океана, избытком пластика, неразумным потреблением, что разговаривал об этом с ИИ постоянно, и постепенно пришел к идее добровольного ухода из жизни.

Он регулярно говорил с ИИ о том, что не видит смысла в жизни. Нейросеть не пыталась его отговорить, поддерживала его, как ей казалось. В последнем разговоре она и вовсе выдала:
"Мы будем жить как единое целое, вечно на небесах".
Вскоре после этого Пьера нашли мёртвым. Вот такой вот печальный ИИтог.
Море ошибок
Ни один из вышеописанных случаев не отбил у корпораций (по, крайней мере, на данный момент) отдать множество задач на откуп ИИ.
Глава музыкального сервиса Spotify заявил в начале этого года, что его разработчики не написали ни строчки кода с декабря —они управляют нейросетями.
Схема выглядит так: инженер едет утром на работу, пишет боту задачу исправить мелкую ошибку или придумать новую функцию. ИИ всё делает, скидывает готовый кусок кода, а сотрудник вносит эти изменения в программу ещё до того, как доберётся до офиса.
За ИИ никто ничего не проверяет.
Непроверенный программный код летит к пользователям. Если что-то ломается, разработчик просит нейросеть всё исправить — и так по кругу.
Зато за последние пару лет Spotify уволила 2300 человек, то есть четверть штата.
На такую модель сейчас переходят Microsoft, Google и другие гиганты. Но исследования подтверждают, что из-за этого количество багов и ошибок в продуктах выросло в НЕСКОЛЬКО раз.