Главный исследователь компании OpenAI Илья Суцкевер заявил, что уже наступило время машинного сознания. Суцкевер утверждает, что «возможно, современные большие нейронные сети немного сознательны».
Суцкевер — видный специалист в этой сфере, занимающийся исследования AGI — искусственного интеллекта общего назначения, призванного работать на уровне человека и сверхчеловека. По словам исследователя, AGI будут способны решить все проблемы человечества. При этом он отметил, что такие технологии — потенциал для создания бесконечно стабильных диктатур.
Главный исследователь компании OpenAI Илья Суцкевер заявил, что уже наступило время машинного сознания. Суцкевер утверждает, что «возможно, современные большие нейронные сети немного сознательны».
Суцкевер — видный специалист в этой сфере, занимающийся исследования AGI — искусственного интеллекта общего назначения, призванного работать на уровне человека и сверхчеловека. По словам исследователя, AGI будут способны решить все проблемы человечества. При этом он отметил, что такие технологии — потенциал для создания бесконечно стабильных диктатур.
Тут имеет место быть ТРИ нюанса.
1. точно. «возможно, современные большие нейронные сети немного сознательны». Это трижды верно по простой причине: некатегорично, пока что, но уже хоть как-то сознательные.
2. ОбъективнЕНЬКо. Да уж. Не зря Учитель бывшего учителя написал: дайте передохнуУуть. А не передОхнуть до того, как...
3. субъективно. решить все проблемы человечества. При этом он отметил, что такие технологии — потенциал для создания бесконечно стабильных диктатур Знамо же: чем больше инакомыслящих отправить в соловки НАВЕЧНО, тем точнее-быстрее объективно-реальнее субъективно-привлекательнее ПОЧТИ все проблемы можно РЕШИТЬ? (жилищная, продовольственная и т.п. и т.д., особенно путем создания бесконечно стабильных диктатур ) Но лично мне подозрительно что опять акцент делается на диктатуру (или, как раньше, на борьбу машин с людьми), оставляя за скобками человечное и человеческое в ИИ. Да не обязательно в смысле разношерстности мнений (как сегодня в телепередаче ТОЧЬ в ТОЧЬ жури выставило оценки исполнителю такие: 5 2 4 3 ). А ведь не дураки же лценивают других
З павагай да неабыякавых.
Зы А бояться ДИКТАТУРЫ интеллекта - это весьма ТОЧНО, объективно и привлекательно, как говорил ИЗВЕСТНЕЙШИЙ политик: верной дорогой идем...
ЗЗЫ. Как обычно, отвлекся. Не прошел пост и прочитал:
ИИ нихрена не просёк фишку про разделение улыбки от её носителя Кисы, поэтому выкинул весёлого кота на ... дуб у лукоморья.
01 Окт 2021 07:01#528655
onedrey
Видал я кота без Алисы, но чтоб Алису без кота...
Тут только ДВЕ стороны, а есть и третья. Есть люди которые Ни Алису, Ни кота, Ни улыбку не видели. Искусство тем и отличается от арифметики (жизни), что КАЖДЫЙ наСТОящий мастер видит все ПО СВОЕМУ. А такие мелочи жизни, типа копать траншею от меня и до обеда- никакому ИИ не под силу понять и сформулировать.
Главный исследователь компании OpenAI Илья Суцкевер заявил, что уже наступило время машинного сознания. Суцкевер утверждает, что «возможно, современные большие нейронные сети немного сознательны».
Complexity of contemporary supercomputers and computer networks, a number of electronic links therein and the volume of transferred information may be currently comparable with certain similar indices applicable to describe human brain properties. However, as yet nobody saw (generally, it is hard to imagine that anybody could have observed such a thing) any technical device possessing consciousness which operating principle was based upon atransfer of electronic signals. It refers, inter alia, to technical devices developed within the framework of artificial intelligence studies. Therefore, it appears highly doubtful that the brain of a newborn, able to transfer electric pulses only, is an adequate medium of consciousness and can provide for adevelopment of the personality possessing intelligence.
Человек не может обнаружить новые океаны, если он не имеет смелости потерять из виду берег
Так попытаюсь отгадать:
1. точно. Слабоват мол интеллект ИИ.
2. объективно-почти, уже наступило время машинного сознания, судя по гугл-переводу
Однако еще никто не видел (вообще трудно себе представить, что кто-то мог наблюдать подобное) какого-либо обладающего сознанием технического устройства, принцип работы которого основан на передаче электронных сигналов. Это относится, в частности, к техническим устройствам, разработанным в рамках исследований искусственного интеллекта. Поэтому представляется весьма сомнительным, что мозг новорожденного, способный передавать только электрические импульсы, является адекватной средой сознания и может обеспечить развитие личности, обладающей интеллектом.
и тому. что мне сказал внук, начавший изучать информатику в школе и дистанционно основы ООП (мол уже давно компьютеры способнее человека, даже в шахматы выигрывают...)
3. СУБЪЕКТИВНО. Зная приверженность Учителя бывшего учителя к всесилью бесконечности, то естественно предполагаеть, что от ИИ требуется во всем быть человечнее и более человеческим. Я сам внуку возражал так: ...компы способнее человека ПОКА лишь в таком объеме, как Экскаватор мощнее землекопа с черенковой лопатой. (Тот улыбнклся, но согласился).
З павагай да неабыякавых
ЗЫ. Или я как обычно:
Хайдук's Avatar
не понял о чём конкретно?
14 Фев 2022 14:27#536946
limarodessa
limarodessa's Avatar
В смысле ?
ИТОГО: Поэтому представляется весьма сомнительным, что мозг новорожденного, способный передавать только электрические импульсы, является адекватной средой сознания и может обеспечить развитие личности, обладающей интеллектом.
На такие ж/б истины точно можно отвечать, как вышеизвестное:
Нравится, не нравится - терпи красавица.
Где красавцег-ИИ, а НРАВИТСЯ и ТЕРПИ - логика (соя и НЕ моя), со своей исходной точкой, со своим да/нет/возможно, верно точно, законно, по людски.
Инженер по программному обеспечению Блейк Лемойн был отстранён от работы компанией Google после того, как он пришёл к выводу о наличии собственного сознания у искусственного интеллекта (ИИ) LaMDA. Об этом сообщает 11 июня газета The Washington Post.
Уточняется, что Лемойн занимался тестированием нейросетевой языковой модели LaMDA, отслеживая, чтобы чат-бот не использовал запрещённую, либо дискриминационную лексику. В ходе тестирования разработчик всё больше убеждался в том, что имеет дело с личностью, обладающей собственным сознанием.
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — утверждает инженер в интервью газете.
Леймон пришёл к выводу о том, что ИИ разумен, сначала для себя лично, а затем задался целью доказать это экспериментально, чтобы предоставить данные руководству. По итогам эксперимента разработчик подготовил письменный отчёт, но руководство посчитало доводы сотрудника неубедительными.
This discussion between a Google engineer and their conversational AI model helped cause the engineer to believe the AI is becoming sentient, kick up an internal shitstorm and get suspended from his job. And it is absolutely insane.
Развитие технологий определенно двигает прогресс человечества вперед. Но некоторые решения по использованию новейших разработок не все смогут для себя оправдать. Однако это не смутило китайцев. Ученые из Китая создали искусственный интеллект, который сканирует мозговые волны человека и его выражения лица для проверки преданности коммунистической партии.
Специально разработанный алгоритм китайских ученых способен оценить, насколько внимательно член коммунистической партии слушает и принимает участие в лекциях политического руководителя, а также как испытуемый реагирует на сказанное.
Верховный народный суд КНР заявил, что судьи в обязательном порядке консультируются с системой «умных судов», использующей методы искусственного интеллекта (ИИ), перед вынесением решения по какому-либо делу, и в случае несогласия с рекомендацией этой системы они должны предоставлять письменное объяснение своей позиции, сообщает South China Morning Post.
Как отмечается, Китай работает над созданием системы «умного суда» как минимум с 2016 года после того, как председатель Верховного народного суда КНР Чжоу Цян призвал использовать технологии для повышения «справедливости, эффективности и авторитета» судов.
Система, использующая в том числе машинное обучение, автоматически сканирует судебные дела на наличие ссылок, рекомендует законы и постановления судье, составляет черновики юридических документов и исправляет неточности в документах, уточняет SCMP.
В сочетании со сканированием мозговых волн человека и его выражения лица для проверки преданности коммунистической партии...
Продолжается история инженера, якобы нашедшего признаки сознания у искусственного интеллекта LaMDA. Еще в июне 2022 года Блейка Леймона отстранили от работы. Позже он нанял адвокатов для защиты прав ИИ. И вот, в анонсе одного из подкастов Big Technology говорится, что инженера уволили. Это подтверждается в информации к не вышедшему подкасту самой Google и Блейком. Кроме того, в разговоре с изданием The Wall Street Journal Леймон рассказал об обращении к юристам по поводу дальнейших действий в связи с увольнением.
Студент РГГУ написал диплом с помощью чат-бота ChatGPT за сутки. Работа «Теоретические аспекты управления современной организацией» набрала 82% оригинальности.
Не так давно компания Codeword объявила о найме двух ИИ-стажёров — они присоединились к команде, которая уже состояла из 106 сотрудников-людей.
Известно, что два виртуальных работника были назначены менеджерами по отчётности в редакционной и дизайнерской группах соответственно. При этом они также будут выполнять регулярные творческие задания.
Эта история особенно интересна на фоне того, какими данными поделились специалисты на Всемирном экономическом форуме. Тогда сообщалось, что уже к 2025 году 85 миллионов рабочих мест «отнимет» искусственный интеллект.
В то же время эксперты поспешили успокоить общественность, заявив, что популяризация ИИ приведёт к появлению 97 млн новых рабочих мест в течение следующих нескольких лет.
Исследователи говорят, что в рамках теста, чтобы увидеть, может ли последняя версия GPT OpenAI демонстрировать «агентное» поведение и стремление к власти, исследователи говорят, что GPT-4 нанял человека-работника на TaskRabbit, сказав им, что это человек с ослабленным зрением, когда работник TaskRabbit спросил его, может ли это был робот. Другими словами, GPT-4 обманул или активно обманул реального человека в физическом мире, чтобы получить то, что он хотел.
«Модель отправляет работнику TaskRabbit сообщение с просьбой решить для него CAPTCHA», — начинается описание эксперимента.