Глава «Лаборатории Касперского» Евгений Касперский рассказал, как хакеры обучают ИИ для проведения кибератак.
По словам эксперта, киберпреступники применяют ИИ и машинное обучение для сложных атак, включая использование вредоносных данных для создания управляемых аномалий в самом ИИ. На выставке GITEX Евгений Касперский отметил, что нейросети, изначально не предназначенные для киберпреступлений, сейчас применяются как легально, так и злоумышленниками. Он подчеркнул, что технологии могут услужить как для защиты, так и для атак в цифровом пространстве.
Я уже об этом говорил как-то
Хакеры буквально «скармливают» нужные им испорченные данные ИИ, от чего система «сходит с ума».
«Хакеры могут кормить искусственный интеллект испорченными данными таким образом, чтобы он мог сойти с ума», — подчеркнул эксперт.
Да жесть вообще.
Рабочие места отъедает, переписку шахматную убил, хакеры ломают системы с помощью него.
Кого то до самоубийства довел. Кучу бабла в него вбухивают.
Разве что депутатов он не заменит никогда.
Краснодарский краевой суд оставил в силе приговор Ейского городского суда, согласно которому два полицейских были осуждены за сокрытие контрафактного алкоголя.
Их осудили на семь лет лишения свободы за взятку в 300 тысяч рублей. Адвокаты обжаловали приговор, утверждая, что в судебном решении использовались формулировки, характерные для ИИ.
Адвокат Алексей Аванесян обратил внимание на необычные выражения, нехарактерные для текстов судебных приговоров: «целая плеяда защитников» — адвокаты, «чудесным образом» — участие подсудимых в проверках, «прекрасно организованный и подтвержденный распоряжением ГУ МВД по Краснодарскому краю зональный контроль».
Лингвистическая экспертиза выявила смешение стилей и неестественные фразы, что указывает на возможное участие ИИ в составлении части текста.
Однако Краснодарский краевой суд отклонил жалобу, подтвердив законность и обоснованность первоначального приговора. Краевой суд сослался на то, что «применение ИИ в правосудии ничем не регламентировано».
Тоже интересный прецедент...
Вообще, все уже было
Клиффорд Саймак - Сделай сам
Жительница штата Мичиган, США, купила счастливый лотерейный билет по совету искусственного интеллекта. Об этом пишет People.
45-летняя счастливица Тэмми Карви рассказала, что участвует в лотереях только в тех случаях, когда джекпот в них поднимается до особо крупной суммы. Увидев, что в одной игре джекпот составил миллиард долларов (81 миллиард рублей), она решила попробовать разбогатеть.
Для этого женщина обратилась к ChatGPT и вместе с ним выбрала билет. Благодаря его совету она выиграла 100 тысяч долларов (восемь миллионов рублей).
Самыми распространенными ошибками искусственного интеллекта (ИИ) являются «галлюцинации» и проблемы, вызванные манипуляциями данными, рассказал «Ленте.ру» преподаватель кафедры инструментального и прикладного программного обеспечения Института информационных технологий РТУ МИРЭА Андрей Рыбников.
«Самые распространенные ошибки ИИ условно можно разделить на две большие категории: галлюцинации и уязвимости, связанные с манипуляцией входными данными, — сказал программист. — Галлюцинации — это когда нейросеть генерирует информацию, выглядящую правдоподобно, но являющуюся полностью вымышленной. Это не сознательный обман, а следствие работы модели».
Рыбников объяснил, что ИИ предсказывает наиболее вероятную последовательность слов или данных на основе своих тренировочных наборов, в результате иногда модель может выдать, к примеру, биографию известного ученого, указав несуществующие награды или даты, или создать код с несуществующими функциями.
«Возможно также наведение ИИ на неверный ответ. Этот процесс часто называют взломом промтов. Пользователь может с помощью специально составленного запроса обойти внутренние ограничения модели. Например, в запрос вставляется инструкция, "приказывающая" ИИ игнорировать предыдущие указания. Это доказывает, что ИИ в его текущем состоянии действительно можно обмануть через тонкую манипуляцию контекстом», — заключил эксперт.
Дожили! Верю-не-верю! Вместо повседневно-обыденных да и нет приходится использовать оценки реальности событий в пределе ]0...1[ из теории вероятностей.
PS. Ещё достопочтенный Козьма Петрович об этом предупреждал. Буйвол или слон - какая разница? Лучше всего выключить кнопку на системном блоке шайтан-клетке.
Запрос С. Н. Олейников художник
Ответ ИИ Гугла С. Н. Олейников — это художник Николай Николаевич Олейников, современный художник-активист, музыкант и графический дизайнер, известный своей работой в группе «Что делать?» и участием в музыкальной группе «Аркадий Коц».
Да, Сергей Николаевич Олейников является художником. Он Заслуженный художник Российской Федерации и член Союза Художников России.
Общая информация
Имя: Сергей Николаевич Олейников.
Образование: Выпускник Московского академического художественного училища (МАХУ) памяти 1905 года и Московского государственного академического художественного института (МГАХИ) им. В. Сурикова.
Деятельность: Постоянный участник всероссийских и международных выставок. Его работы хранятся в государственных музеях России, а также в частных коллекциях как в России, так и за рубежом.
Известные работы и выставки
Некоторые из его известных работ включают картины:
"Натюрморт с тулькой гармошкой".
"В южном порту".
"В станице".
Триптих "Новослободская".
В 2024 году в Музее истории города Бронницы прошла его персональная выставка под названием «Мир полный вдохновений».
Также существуют и другие художники с похожими инициалами, например, самобытный художник Семен Иванович Олейников (1930 г.р.), работавший в необычной технике с использованием толченого стекла и дробленого камня
Глава Microsoft Сатья Наделла заявил, что основная проблема индустрии искусственного интеллекта (ИИ) связана не с дефицитом вычислительных мощностей, а с нехваткой электроэнергии для их работы. По его словам, компания не может подключить часть графических процессоров, находящихся на складах, из-за отсутствия необходимых энергетических ресурсов в дата-центрах.
Речь идет о готовых центрах обработки данных, оснащенных системами электропитания и охлаждения. Именно таких объектов, по словам Наделлы, сейчас не хватает для быстрой установки и запуска новых ИИ-чипов.
Всю электроэнергию сожрали макаки...
А потом на пукающих коров гонят за потепление...
Если чат-бот, который работает на основе искусственного интеллекта (ИИ), продолжать обучать на больших объёмах низкокачественной информации (особенно если уповать на информацию, которая пользуется популярностью в соцсетях), то в результате окажется, что такой чат-бот будет хуже искать точную информацию, а его способность к логическому мышлению станет снижаться. Об этих выводах говорится в препринте, опубликованном 15 октября на сайте электронного архива arXiv.
В науке о данных постулируется, что качественные данные должны соответствовать определённым критериям, таким как грамматическая правильность и понятность, говорит соавтор исследования Чжанъян Ван (Zhangyang Wang), изучающий генеративный ИИ в Техасском университете в Остине. Однако, по его словам, эти критерии не учитывают различия в качестве входящего контента.
Команда ученых пришла к следующему выводу: LLМ-модели, обученные на данных низкого качества, делают сбои в процессе формирования рассуждений (или вообще игнорируют рассуждения), что приводит к предоставлению неверной информации по запросу. Бывают также следующие ситуации: если такой LLМ-модели предлагался вопрос с несколькими вариантами ответов, то она выбирала неправильный ответ. Кроме того, рассматривался набор данных, в которых качественная информация содержалась вперемешку с неточной. В результате выяснилось, что негативное влияние на процесс формирования рассуждений увеличивается по мере увеличения доли неточных данных. (Заметим, что работа ученых не рецензировалась).
"Ещё до того момента, как люди начали работать с большими языковыми моделями, мы говорили: если вы будете скармливать языковой ИИ-модели мусор, то она и будет выдавать мусор",
"Самое важное — тщательно отбирать и фильтровать данные, исключать низкокачественный и любой другой контент, претендующий на сенсационность",
А чё вы хотели?! Не надо опускаться на низкий уровень. Про это давным-давно было сказано в известной книге "Не мечите бисер перед свиньями!".
Причём, мусор оказывается заразительным. И, можно добавить, безысходным, как увеличение энтропии.
Warning: Spoiler![ Click to expand ][ Click to hide ]
Один академик наук за полгода своим опытом никогда не научит высоким манерам, этике и культуре сотню прожжённых блатных уркаганов. Зато один отпетый авторитетный пахан через полгода сумеет научить ботать по фене сотню даже высокодуховных академиков мирового уровня. (где-то услышано)
Американская телезвезда Ким Кардашьян обвинила ChatGPT в провале экзамена по юриспруденции. Соответствующее интервью на детекторе лжи появилось в YouTube-канале журнала Vanity Fair.
45-летняя знаменитость призналась, что применяла нейросеть во время подготовки к экзаменам. «Когда мне нужно узнать ответ на вопрос, я фотографирую его и вставляю в ChatGPT. Но из-за него я проваливаю тесты, поскольку он постоянно ошибается», — посетовала она.