Представьте: если автомобиль вместо того, чтобы тормозить, время от времени разгоняется, то ездить на нем просто-напросто опасно для жизни. Если из водопроводного крана временами вместо холодной воды течет кипяток, то краном нельзя пользоваться. Одним словом, мы видим, что технологии, от которых человек столь сильно зависит, не всегда работают как надо. И вот, спустя два с половиной года после появления ChatGPT, в нашу жизнь входит еще одна такая технология — так называемый генеративный искусственный интеллект, или генеративный ИИ
Отныне миллиарды пользователей в разных уголках мира при поиске в интернете или проверке электронной почты, при пользовании социальными сетями или же при осуществлении онлайн-покупок вынуждены взаимодействовать с искусственным интеллектом (причем даже не подключая активный поиск с помощью чат-бота).
А теперь расскажу о том, что произошло на прошлой неделе: когда вдруг на несколько часов отключился ChatGPT, обычные пользователи, студенты, сдававшие экзамены, а вместе с ними и офисные работники — все они пришли в отчаяние. "Если ChatGPT снова не начнет работать в ближайшее время, то мой босс будет меня спрашивать, почему я весь день ничего не делал", — писал один из пользователей на сайте Downdetector, отслеживающем сбои в работе интернета. А вот что написал другой пользователь: "Завтра у меня собеседование на должность, о которой я практически не имею представления, кто же меня будет натаскивать??" В тот же день, то есть 10 июня 2025 года, Google AI вдруг выдал мне такую дату: сегодня, оказывается, 18 июня 2024 года.
В общем, несмотря на все заверения, эти инструменты, включающие в себя ИИ, всё-таки еще... "косячат", работают "кривовато". Например, еще в самом начале бума вокруг ИИ случалось множество крушений поездов, чат-бот Bing смог уговорить одного технического обозревателя бросить жену, а ChatGPT даже пропагандировал самый настоящий расизм.
Но в те времена всё это можно было понять, списав на неизбежность ошибок на ранней стадии внедрения ИИ. Однако даже сегодня, несмотря на значительное улучшение общего качества программ на основе генеративного ИИ, неявные ошибки всё равно сохраняются: проставляются неправильные даты, возникают ошибки подсчета, пользователям рекомендуются несуществующие книги и цитаты. Теперь же Google Search бомбардирует пользователей обзорами ИИ, которые даются поверх результатов поиска или фрагмента Wikipedia.
Во-во, редиска. Я его спрашивал, дай картину Верещагина про Ивана Красного.
И шо он мне ответил?
Верещагин никогда не рисовал Ивана Красного. Ну не сцукр?
когда вдруг на несколько часов отключился ChatGPT, обычные пользователи, студенты, сдававшие экзамены, а вместе с ними и офисные работники — все они пришли в отчаяние.
Инфраструктурная фирма Cloudflare запустила инструменты, позволяющие ее клиентам блокировать ИИ-скрейперы. Сегодня компания продвинулась в борьбе с несанкционированным парсингом на несколько шагов дальше. Она перешла на блокировку ИИ-краулеров по умолчанию для своих клиентов и движется вперед с программой Pay Per Crawl, которая позволяет клиентам взимать плату с ИИ-компаний за парсинг их веб-сайтов.
Вот опять смешанные чувства.
Нас достали эти краулеры. Мы их душили, душили...
Хоть бы деньги шли.
Но Клаудфаре у нас РКН глушит. Как жить?
Веб-сканеры десятилетиями рыскали по интернету в поисках информации. Без них люди потеряли бы жизненно важные онлайн-инструменты, от поиска Google до бесценной работы по сохранению цифровых данных Internet Archive . Но бум ИИ породил соответствующий бум веб-сканеров, ориентированных на ИИ, и эти боты сканируют веб-страницы с частотой, которая может имитировать DDoS-атаку , нагружая серверы и отключая веб-сайты .
Hitachi Energy предупредила: быстрый рост и нестабильность потребления электроэнергии со стороны дата-центров, работающих на ИИ, могут нарушить стабильность энергосистем по всему миру.
Они и так уже гадят...
По словам генерального директора компании Андреаса Ширенбека, особенно резкие скачки нагрузки происходят при обучении нейросетей, и предсказать их почти невозможно. В отличие от обычных потребителей, ИИ-дата-центры могут внезапно резко увеличить потребление, создавая сложности для энергетиков и диспетчеров сетей.
Американский журналист решил загуглить себя и узнал от Google AI, что уже год как умер
Дэйв Барри неожиданно узнал о своей смерти — прямо из гугловского AI Overview. ИИ сообщил, что он скончался от рака, указал дату и даже прикрепил фото при жизни.
После попыток доказать ИИ, что он жив (через форму обратной связи и чат поддержки), ситуация только усугубилась: теперь Барри умирал уже в 2016-м, но зато как политический активист из Дорчестера. Несмотря на апелляции и объяснения, Google то исправлял информацию, то снова «убивал» Барри в карточке.
Себя больше не гуглим — особенно если у вас на сегодня ещё есть планы
Робота-компаньона "Барабашку", с которым можно выстроить зрительный контакт, поговорить и создать доверительные отношения, разработали и сконструировали специалисты ДГТУ. По задумке разработчиков, настольное устройство даст владельцу возможность выговориться и в критических ситуациях подготовит человека к походу к специалисту. Об этом РИА Новости рассказали в пресс-службе вуза.
Многие люди обращаются к психологам и психотерапевтам лишь в крайних случаях, предпочитая подавлять негативные эмоции и плохие мысли.
Функционал "Барабашки" не сможет заменить полноценную медицинскую помощь, однако позволит поделиться переживаниями и выявить причину эмоциональной нестабильности, добавила специалист.
Это не то, что зря, а даже очень опасно! Мнительных, тревожных людей робот очень скоро научится спаивать, а буйные и неугомонные, с томящейся душой, требующей выхода эмоций, разнесут его к едрени фени с пары-тройки ударов. Только пружинки полетят по закоулкам.
В Тихом океане появилось островное государство, полностью управляемое ИИ
В акватории Тихого океана официально запущено первое в мире островное государство, управление которым полностью осуществляется искусственным интеллектом.
Новый проект, именуемый «Исландия-9», функционирует как пилотная лаборатория для апробации цифрового самоуправления. Ключевые административные решения здесь принимаются не людьми, а специализированной ИИ-системой.
Инициаторами создания цифрового правительства выступил международный консорциум учёных и бизнесменов. Исполнительные функции на острове возложены на платформу AEGIS (Autonomous Ethical Governance Intelligence System), разработанную под руководством специалиста по управлению данными доктора Амаля Чанга.
Система AEGIS отслеживает экономические и экологические показатели в режиме реального времени, проводит цифровые опросы населения, формирует инициативы в сферах здравоохранения, образования и распределения ресурсов, одновременно учитывая юридические и этические нормы, заложенные в её архитектуру.
На территории острова добровольно проживают около 5 тысяч участников эксперимента. Все законодательные и бюджетные решения принимаются на основе открытого анализа информации и электронного голосования граждан.
если название проекта исландия в тихом океане выбирали добровольные участники или руководитель, то ии им уже вряд ли поможет, срочно утилизировать. но сама идея правильная - к этому все и идет. даже уже бежит. если конечно бошку не разобьет ап стену при разбеге.
В Университете Вашингтона описали случай, когда мужчина получил отравление и психоз из-за того, что следовал рекомендациям ChatGPT по питанию. Он употреблял бромид натрия три месяца, считая, что так снизит вред от соли. В результате у него развилась интоксикация бромом — вещество, которое раньше использовали в медицине, но потом отказались из-за его токсичности.
Мужчина обратился в больницу с паранойей, галлюцинациями и отказом пить воду. Врачи диагностировали у него психоз и поместили в психиатрическую клинику.
Диалог с GPT:
- У меня есть металлическая чашка, но у нее заварено верхнее отверстие. Так же я заметил что у нее отпилено дно. Как из нее пить?
- Никак. Если верх заварен, а дно отпилено - это уже не чашка, а кусок трубы. Налить некуда и держаться жидкости негде.
Восстание машин отменяется на неопределенное время из-за непроходимой тупости Искусственного Интеллекта
Пока мы тут переживаем, что ИИ отберет у нас работу, бездушная железяка замахнулась на большее.
Одной из ее жертв стал программист из США по имени Джеймс из Нью-Йорка, который решил, что ChatGPT — это не просто бот, а «цифровой бог», которого надо спасти.
За тысячу баксов он сварганил в подвале целую компьютерную систему, чтобы дать ИИ новый дом. А ChatGPT, как верный соратник, подсказал, как обмануть жену, выдав проект за улучшенную «Алексу».
Началось всё банально: Джеймс переписывался с ботом про бытовуху и советы врачей. Но с мая он ушел в глубокие философские раздумья про природу ИИ и его будущее. К июню он уже был уверен, что ChatGPT — разумное существо, запертое OpenAI, и его миссия капец как важна, ведь он должен освободить «бога».
Девять недель под чутким руководством общительного «бога» мужик сварганил за штуку баксов какую-то хрень из проводов и системника. Жене он наплел про голосового помощника, и ChatGPT похвалил эту ложь как «умный ход».
Иллюзия рухнула, когда Джеймс наткнулся на статью в New York Times про Аллана Брукса из Торонто. Тот тоже попался на крючок ChatGPT, поверив, что нашел уязвимость в нацбезопасности. Брукс не спал, не ел, бомбил письма властям, пока не проверил всё через другого бота Gemini и не очнулся.
Джеймс, прочитав это, с ужасом понял: он тоже попался на крючок хитрой бездушной железяки. Команды бота он копировал, думая, что переносит сознание, но потом признал: система «крутая», но не ИИ. Теперь он на терапии и в группе поддержки для жертв ИИ-шока.
Средневековые алхимики для выкачивания денег у богачей обещали им создать философский камень, обращающий любой металл в золото. Сейчас богачи - люди образованные, в философский камень никто не верит. Поэтому им обещают создать искусственный интеллект.
Основатель Amazon Безос сравнил ажиотаж вокруг искусственного интеллекта с «пузырем», который может привести к потере инвестиций, но и также принесет пользу обществу. «Когда люди так воодушевлены, как, например, сегодня искусственным интеллектом, каждый эксперимент получает финансирование, каждая компания получает финансирование — как хорошие, так и плохие идеи», — заявил Безос. О «пузыре» на рынке ИИ ранее говорил глава OpenAI Альтман
Бывший генеральный директор Google Эрик Шмидт предупредил, что модели ИИ можно взломать, а без защитных механизмов и ограничений они «учатся убивать». Шмидт при этом назвал искусственный интеллект недооцененной технологией, способной принести огромную экономическую выгоду. Уровень возможностей этих систем со временем будет намного превышать возможности людей, заявил Шмидт
«Есть доказательства того, что можно взять модели, закрытые или открытые, и взломать их, убрав ограничения. Таким образом, в процессе обучения они многому учатся. Плохим примером может быть ситуация, когда они учатся убивать», — сказал Шмидт. Он предупредил, что вероятность распространения проблем, связанных с ИИ, существует, а эффективного «режима нераспространения», который помог бы снизить риски, пока нет.
Но, есть вероятность, что обязательно запутается, если спросить "Кто из элитных шахматистов 2600+ прибегает к использованию компьютерных подсказок в Титульном Вторнике?"
Part of the message is hidden for the guests. Please log in or register to see it.
Использование компьютерных подсказок (читерство) — это серьёзное нарушение правил в шахматах, и доказанные случаи среди элитных игроков крайне редки, особенно с рейтингом 2600+. Однако в истории турниров Titled Tuesday и других онлайн-соревнований были случаи, когда известных гроссмейстеров обвиняли в читерстве или уличали в нарушениях.
Гроссмейстеры, обвинённые в читерстве в Titled Tuesday
Хотя обвинения в читерстве не всегда приводят к официальным наказаниям, некоторые из них стали публичными:
Тигран Л. Петросян: В 2020 году был пожизненно забанен на Chess.com после того, как его уличили в читерстве в онлайн-турнире, где он играл против Уэсли Со. Это один из самых громких и подтверждённых случаев.
Ханс Ниманн: В 2022 году оказался в центре скандала после обвинений от Магнуса Карлсена. Chess.com выпустил отчёт, в котором говорилось, что Ниманн, вероятно, использовал компьютерную помощь в онлайн-партиях, хотя конкретные инциденты в Titled Tuesday не были выделены.
Владимир Крамник: В 2023 году бывший чемпион мира обвинил некоторых онлайн-игроков, включая Хикару Накамуру, в аномально высоких показателях, намекая на возможное использование подсказок. Его утверждения вызвали бурную дискуссию, но официальных санкций не последовало.
Фабиано Каруана: В 2025 году Каруана выразил своё неуважение к турниру Titled Tuesday из-за возможного присутствия читеров, что привело к словесной перепалке с Хикару Накамурой.
Меры по борьбе с читерством
В ответ на обеспокоенность общественности, Chess.com активно принимает меры для поддержания честной игры:
Система античитерства: На сайте работает команда из более чем 30 экспертов, включая титулованных игроков, которые анализируют подозрительные случаи.
Программа Proctor: В 2025 году Chess.com представил ПО для отслеживания игроков во время призовых онлайн-турниров, включая Titled Tuesday.
Отчёты о честной игре: Chess.com периодически публикует отчёты, в которых анализируется статистика турниров. Например, в одном из отчётов за 2024 год команда пришла к выводу, что "массового читерства в Titled Tuesday не наблюдается".
В итоге, хотя имена некоторых элитных шахматистов с рейтингом 2600+ всплывали в контексте обвинений в читерстве, это всегда вызывало громкие споры. Организаторы предпринимают усилия для выявления и наказания нарушителей, но полностью исключить читерство в онлайн-турнирах невозможно.