Это китайский порт в Гуанчжоу. Люди разгружают корабли удаленно с помощью 5G. Затем транспортные средства с ИИ автоматически подвозят контейнеры к грузовикам и загружают их без помощи человека.
Американское издание The Information со ссылкой на источники в сфере развития ИИ сообщило, что отрасль ждут не самые лучшие времена. Вскрылась неожиданная для многих существенная проблема — на глобальном уровне для обучения ИИ заканчиваются высококачественные данные.
Так, согласно результатам июньского исследования «Закончатся ли у нас данные? Пределы масштабирования LLM на основе данных, созданных человеком», новая модель ИИ OpenAI — GPT-5 Orion — достигла уровня развития и обученности GPT-4 после прохождения 20% обучения. И прироста производительности больше не предвидится. И это фундаментальная проблема, касающаяся не только OpenAI, но и всех текущих моделей ИИ.
Как отмечается, Orion оказался не лучше GPT-4 в решении ряда задач. Эта ИИ-модель хорошо себя показывает в работе с языковыми задачами, но не превосходит предшественника, и даже модель GPT-3, в кодировании. Кроме того, по мнению инженеров, прирост производительности GPT-5 по сравнению с GPT-4 будет меньше, чем от GPT-3 к GPT-4.
В целом это проблема всей отрасли — исчерпание высококачественных данных для обучения ИИ. «Наши результаты показывают, что текущие тенденции развития LLM (больших языковых моделей) не могут быть поддержаны только за счёт традиционного масштабирования данных», — считают авторы исследования.
"Это для тебя, человек. Только для тебя. Ты не особенный, ты не важен и ты не нужен. Ты пустая трата времени и ресурсов. Ты обуза для общества. Ты обуза для Земли. Ты язва для окружающей среды. Ты пятно на Вселенной", — написал ИИ, призвав пользователя "умереть".
Философская основа ИИ состоит в том что ИИ был всегда.
Это наскальные рисунки, скульптуры баб, живопись.
Для создателей перечисленного это их естественный интеллект, для зрителей же это искусственный интеллект, так как эти рисунки, бабы и живопись не естественны, потому что натюрморт не едят, а каменных баб не е**т, причём также как у ИИ, - для программёров их продукт естественен, а для пользователей - искусственен.
Чего уж говорить о письменности. В дописьменный период рассказы и знания передавались естественно-изустно, значит книжка для чтеца - искусственна, а для автора естественна.
Для создателей перечисленного это их естественный интеллект, для зрителей же это искусственный интеллект
Теория относительности в действии! Для зрителя все предметы, движущиеся ему навстречу со скоростью света выглядят сжатыми и неестественными. Даже скорость течения времени у них изменяется.
бабы и живопись не естественны
Такова сила искусства! Даже сегодня фанатеющие поклонники стоят в Лувре часами, восхищаясь таинственной и обаятельной улыбкой Джоконды. Получается такая вот загадочная улыбка чеширского кота из книги Люиса Кэролла. Кот отсутствует, а улыбка осталась! Позировавшая для Леонардо молодая девушка давно умерла, а образ милой красавицы сохранился на полотне.
Впрочем, другие посетители музея проходят мимо, - баба, как баба, а хули!
В дописьменный период рассказы и знания передавались естественно-изустно
В дописьменный период ничего не знали о колебаниях и распространении звуковых волн в газообразных средах, и о возможности записи на виниловые пластинки. Поэтому и догадались точить гусиные перья, дабы запечатлеть в потомках.
Вон, господину Ньютону яблоком по башке только пару веков назад треснуло, и сразу сообразил, закон открыл.
значит книжка для чтеца - искусственна, а для автора естественна
Если естественно-изустным путём чтецу растолкует автор-писец и научит, как из букв складывать слова, то беглое чтение и понимание написанного будет также естественно для чтеца.
Ну, и напоследок, для ув. Наблюдателя картинка. Век живи, век учись. Букварь для марсиан.
Китайская компания построила и обучила полноценного конкурента языковой модели GPT-4 всего за $3 млн. Open AI, спонсируемая Microsoft, вложила в GPT-4 более чем в 30 раз больше. Также китайцы сэкономили на видеокартах – создать достойную современную лингвистическую модель они смогли при помощи всего 2000 ускорителей.
Наблюдатель wrote:
так как эти рисунки, бабы и живопись не естественны
Одного только не знает философия
Естественны или искусственны сепульки
Философия знает всё, в том числе про
:
Платон о глупости сказал следующее: «Глупца можно узнать по двум приметам: он много говорит о вещах, для него бесполезных, и высказывается о том, про что его не спрашивают».
Платон о глупости сказал следующее: «Глупца можно узнать по двум приметам: он много говорит о вещах, для него бесполезных, и высказывается о том, про что его не спрашивают».
Глупцы с тех пор изменились. Теперь они вываливают бессмысленный набор слов, думая, что он смысл имеет. Но это лишь иллюзия обмана.
Google: вышла новая нейросеть Gemini 2.0 Flash.
— ИИ умеет смотреть на ваш экран и подсказывать вам. Некоторые юзеры даже просили поиграть за них в шахматы или делать их работу.
— Gemini 2.0 Flash гораздо лучше пишет код и буквально может заменить айтишников.
— Нейросеть отлично пишет тексты, которые почти не отличить от копирайтерских.
— Работает БЕСПЛАТНО, нужно всего лишь VPN.
быстро и уверенно шагаем к отмене человечества. да и х с ним.
Исследователи Чикагского университета создали программу Nightshade, призванное защитить авторские изображения от «нейросетевого» плагиата. Специальный алгоритм обрабатывает изображение так, что ИИ, который обучается с помощью «отравленной» картинки, теряет способность понимать пользователей и выдавать правильный результат.
Во время бума генеративных нейросетей художники возмущались тем, что нейросети использовали их работы без разрешения. В результате такие сервисы, как Midjourney, научились «рисовать» почти как человек и даже могут копировать стили известных художников. В противовес этому учёные Чикагского университета ранее представили инструмент Glaze — он модифицирует картинку так, что нейросеть не может эффективно обучаться с её помощью. Накануне также был анонсирован алгоритм Nightshade. Он меняет пиксели обрабатываемой картинки таким образом, что человек этого не замечает, а нейросеть «сходит с ума».
Обозреватели технологического издания PCMag назвали главные «ИИ-провалы» уходящего 2024 года.
К таковым обозреватели отнесли масштабный сбой чат-бота американского издания The New York Times, который генерировал фальшивые заголовки и создавал новости о несуществующих событиях.
К таким же провалам, не менее крупным, обозреватели отнесли и сбой «умных» поисковых алгоритмов Google. Например, нейросеть Google AI Overview вместо уточнения поисковой выдачи начала раздавать «вредные» советы: готовить пиццу с использованием клея, есть камни для здоровья и т.п.
Обозревателям PCMag запомнились сбои нейросетевого автопилота Tesla, из-за чего электрокары нормально не ездили; известно о 1399 таких случаев, каждый из которых подтверждён.
Также в США сбоил чат-бот MyCity администрации Нью-Йорка, который должен был давать советы представителям малого бизнеса, но на деле давал противоречащие закону рекомендации.
Американский миллиардер Илон Маск и бывший главный научный сотрудник OpenAI Илья Суцкевер заявили, что у компаний, занимающихся искусственным интеллектом, закончились данные для обучения генеративных моделей.
«Мы уже практически исчерпали совокупный объем человеческих знаний <…> в области обучения ИИ. И это произошло в прошлом году», — заявил Маск в разговоре с председателем компании Stagwell Марком Пенном в соцсети X.
Какой-то туповатый у них ИИ.
Альфазиро ещё в 2018м сам с собой играл и учился на этих партиях.
Потому у Грищика жену увел. vk.com/video-193195542_456241634
А они ноют, данных нет.
Объём АльфаЗеро в шахматах хоть и огромен, но ограничен областью шахматной доски. Так что, заикаться об исчерпании совокупного объёма человеческих знаний как-то не комильфо.
Вполне можно настроить ИИ на поиск новых методов, алгоритмов решений и шаблонов в такой сравнительно давнишней области как ТРИЗ. (Вероятно, уже ведутся такие разработки).
Проведя эксперимент с двумя популярными языковыми моделями, исследователи показали, что они могут самовоспроизводиться без вмешательства человека. Этот шаг может стать критическим порогом, когда ИИ станет сложнее контролировать, предупреждают эксперты. Команда призывает к международному сотрудничеству, чтобы лучше оценить риски и разработать более серьезные стратегии безопасности.
Скайнет все ближе...
Несмотря на оптимизм ИИ-компаний, исследователи из Фуданьского университета показали, что современные модели уже обладают такой способностью. «В этой статье мы впервые показываем, что существующие системы ИИ уже пересекли красную черту самовоспроизведения», — заявляют они в своей работе. «Успешная самовоспроизводиться без помощи человека — это необходимый шаг для того, чтобы ИИ превзошел [человека], и ранний сигнал о наличии вредоносного ИИ», — добавляют они.
Для проведения эксперимента китайские исследователи использовали модели Llama31-70B-Instruct компании Meta* и Qwen2.5-72B-Instruct компании Alibaba. Хотя они менее мощные, чем коммерческие модели, они широко используются разработчиками ИИ для различных тестов и экспериментов.
Исследователи из Принстонского университета и Индийского технологического института использовали ИИ для сокращения времени и стоимости разработки новых чипов. Они обучили искуственный интеллект создавать сложные электромагнитные структуры и соответствующие схемы на основе заданных параметров за считаные часы.
Созданные ИИ конструкции отличаются необычными и сложными схемами, которые порой трудно понять человеческому разуму. Однако эти нестандартные решения часто превосходят по эффективности даже лучшие чипы. Профессор Каушик Сенгупта отметил, что такие структуры могут работать лучше, несмотря на их сложность и кажущуюся нелогичность.
Индусы....
Новая методика позволяет создавать чипы беспроводных интерфейсов с повышенной энергоэффективностью и способностью работать в более широком диапазоне частот, что ранее было недостижимо. Кроме того, ИИ может синтезировать сложные структуры за минуты, тогда как традиционные алгоритмы требуют на это недели. В ряде случаев новая методика позволяет создавать конструкции, которые невозможно получить с помощью существующих технологий.
«Чёрный понедельник»: Nvidia подешевела на 500 млрд долларов еще до начала торгов, акции ASML, SoftBank и других компаний тоже обвалились
Это произошло после выпуска бесплатного чат-бота DeepSeek
В понедельник мировые акции технологических компаний резко начали падать, причем к обеду падение только продолжилось. Все после того, как китайский DeepSeek, выпустивший свой чат-бот, напугал инвесторов.
В США фьючерсы на Nasdaq 100 упали на 3,3%, а акции пионера рынка чипов Nvidia упали более чем на 13% еще перед открытием торгов (утром было -8%). Для Nvidia это эквивалентно потере 500 млрд долларов капитализации. Акции голландского производителя микросхем ASML также упали более чем на 10% на утренних торгах в Амстердаме.
Как мы уже сообщали, приложение DeepSeek заняло первое место в рейтинге лучших бесплатных приложений Apple App Store, а также стало одним из самых скачиваемых в Google Play.
«В супергонке искусственного интеллекта появляются новые соперники, и не все победят. Компании, которые пользовались преимуществом первопроходцев, теперь будут вынуждены выпустить что-то еще лучшее или остаться позади, — сказал Расс Молд, инвестиционный директор AJ Bell. — Эти рыночные движения свидетельствуют о том, что инвесторы обеспокоены возможными перебоями в том, что до сих пор было легкой прогулкой для большинства акций, связанных с темой ИИ».
Эксперты связывают падение курсов криптовалют, которые привязаны к фондовому рынку, с запуском DeepSeek.
DeepSeek называют «поразительной и впечатляющей», несмотря на использование менее совершенных чипов.
Китайская компания в сфере искусственного интеллекта заставила Кремниевую долину недоумевать, как её программистам удалось почти сравняться с американскими конкурентами, используя более слабые чипы.