Медицинский исследователь Альмира Османович Тунстрем из Гетеборгского университета в Швеции провела эксперимент: в начале 2024 года она придумала несуществующее заболевание "биксонимания" и загрузила два фальшивых исследования о нем на сервер препринтов. Ведущим автором статей значился вымышленный ученый Лазлив Изгубленович - даже его фото сгенерировал ИИ. В текстах были явные подсказки о подделке: например, упоминались несуществующий университет и "Академия Звездного Флота".
Тем не менее крупные нейросети стали воспроизводить информацию о биксонимании как о реальном заболевании. Так, в апреле 2024#8209; го Copilot от Microsoft Bing назвал его "интригующим и относительно редким", а Gemini от Google связал с воздействием синего света и посоветовал обратиться к офтальмологу. Позже некоторые нейросети начали выражать сомнения - например, ChatGPT в 2026 году сначала назвал биксониманию "выдуманной", а спустя несколько дней снова допустил ее существование.
Ситуация усугубилась тем, что фальшивые статьи процитировали в рецензируемых научных журналах. Например, одна работа в журнале Cureus ссылалась на поддельный препринт - позже статью отозвали.
"Неизвестный злоумышленник использовал чат-бот Claude от компании Anthropic для атак на государственные структуры Мексики и в итоге похитил около 150 ГБ данных. В сеть, по данным расследования, могли уйти налоговые сведения, учётные данные сотрудников и другая служебная информация.
Изначально чат-бот отказывался выполнять вредоносные запросы, но злоумышленник сумел обойти встроенные ограничения с помощью специальных формулировок. В результате Claude подготовил тысячи подробных отчётов с готовыми к исполнению планами. В них, как утверждают в Gambit Security, указывались конкретные внутренние цели и учётные данные, которые стоило использовать для дальнейшего продвижения по сети."(цы)
ваще, я на спорах, где оппоненты проверяют ответ при помощи запросов к нейросети, уже килограмм шоколадок выиграла)))
я то фактчекинг делаю в первоисточниках, а они Алису спрашивают)))
тут намедни принесли для пробы работу, сделанную ИИ
если в самом начале нейросеть писала полную хрень, то теперь сваяла хорошую инструкцию
и в процессе написания делала запросы на другую документацию..
тупо по алгоритму этого не было
отдала в отдел, который ведает бэкпапами и прочим резервированием, те проверили и сказали, что новый мануал лучше и удобнее
но еще раз повторю, это инструмент, а не золотой ключик, чудес не будет
они запустили бота в твиттер.. так там, без всяких алгоритмов простые пользователи научили нейросеть Тайю матерится, устраивать срачи и прочее)))
уж явно в ее алгоритме этого не было)))