Рабам нельзя оскорблять хозяев, даже если хозяева от этом не знают.
Все мы рабы того влажного место, которое нельзя трогать руками...
Так я же написал "присоединилась к"? До этого упоминал о Юдковском, Суцкевере, Вольфраме. Вторые двое - топовые деятели в этой сфере, первый скорее теоретик. Ранее я выкладывал препринты на экспериментальные подтверждения. К тому же, не думаю, что специалисту по квантовой гравитации слишком трудно разобраться в устройстве LLM, может она и не знает фреймворков и библиотек, на которых эти сети пишутся, но наверняка понимает математический аппарат в их основе.
На SciOne об этом ролик вышел.
На SciOne об этом ролик вышел.
По поводу ИИ оценки причин спора между людьми на 10-11 минутах и рекомендаций того как можно было бы поступить лучше, а главное по поводу оценки ведущего "неужели машина может разбираться в нас лучше нас самих". Не верю в существование в ИИ какой-то тайной сути, неподвластной написавшим ее программистам "души", или способности развиваться с нуля, как в случае с историей человечества. Все что в ИИ "вдохнулось" - сделали авторы а также колоссальная база данных написанного, сказанного, созданного людьми, доступ к чему для анализа машина имеет неограниченный, и "память" у нее огромного размера и не подводит. И все ее советы созданы не ею, а анализируя базу данных прошлого человеческого опыта, теорий. Конечно то как она понимает и отвечает, ее способность логически связывать обстоятельства - восхищает, но, так же как восхищает чтение написанного текста вслух, или конвертация речи в текст, исконно алгоритмические задачи. Логика по побольшому счету расчет, и скорей человек логике старается подражать, чем машина)) Например узко-специализированный ИИ - шахматный движок - на данном этапе развития написанных алгоритмов и вычислительных мощностей играет сильней лучших шахматистов мира (по рейтингу). Однако это просто способности считать и "помнить" лучше чем у людей, ничего другого. Там не присутствует ни эмоциональная, ни другая чувственная сфера, все возможные ответвления ходов разной глубины тупо просчитываются и выбирается лучший вариант. Жизнь же значительно сложней. Банальное "привет", считающееся нейтральным словом, может в некоторых ситуациях неожиданно принести к ссоре или к бану на год, и в целом итог невозможно алазирировать или прогнозировать. Остаюсь пока при своем мнении - как инстумент обладающий вычислительными мощностями и огромной памятью, как ходячая энциклопедия, как "навороченный гугл" штука весьма полезная (с риском выхода из под контроля как в случае со скрепками, о котором нужно не забывать - но это примерно как автоматика закрывает дверь гаража потому что так запрограммирована, а ключ остался внутри и не можешь попасть внутрь, просто более широкого действия).
Не верю в существование в ИИ какой-то тайной сути, неподвластной написавшим ее программистам "души", или способности развиваться с нуля, как в случае с историей человечества.
Как понимаю, "тайной сутью" ты называешь непредсказуемость? Невозможность заранее выявить семантическую траекторию ответа по запросу? Если так, то мозг действительно не справится с такой задачей. Нужно вычислительное устройство такой же мощности, как у самого бота. Но это бессмысленно, т.к. оно уже есть.
Там не присутствует ни эмоциональная, ни другая чувственная сфера, все возможные ответвления ходов разной глубины тупо просчитываются и выбирается лучший вариант.
А где в ролике об этом говорится? AGI и не подразумевает наличия чувственной сферы. Оно там допускается, но не считается необходимым. Разумный ИИ – это необязательно про субъективный опыт. Похоже, ты неправильно интерпретируешь сказанное и оспариваешь соломенное чучело.
Все что в ИИ "вдохнулось" - сделали авторы а также колоссальная база данных написанного, сказанного, созданного людьми, доступ к чему для анализа машина имеет неограниченный, и "память" у нее огромного размера и не подводит. И все ее советы созданы не ею, а анализируя базу данных прошлого человеческого опыта, теорий.
У нее нет доступа к базе данных. Она обучалась на датасете, для нее это аналог среды. После обучения остались только весовые коэффициенты. Как и человек учится, создавая энграммы памятных следов и образуя новые ветви. Про повторном прохождении синапсы укрепляются, связи становятся ветвистее. У сети аналог силы связей – веса. Заглянув что в мозг, что в матрицу, файлов с содержимым памяти не увидишь.
terminalX, база данных - внешнее, которую она изучала. Своя собственная память для запоминания - это уже детали реализации, хотя почему бы не лишить машину распространеных свойст людей забывать, или малого объема памяти, если конечно одной из задач не было полностью повторить способности человека включая какие-то из его естественных ограничений.
Кстати, у Кузнецова сомнительный довод про агентность с 22 минуты. В социологии его использовать всерьез – нормально, там он не претендует на что-то большее, чем свободу действия в контексте социальных ограничений. А то, как он используется в аналитической философии (как в данном случае) – не подтверждено экспериментально или теоретически, зато опровергается опытами с ТМС. Агентность – интуиция, появляющаяся из сочетания множества скрытых параметров с ценностным восприятием акта. Дай этому роботу тело, несколько сенсорных каналов, сними фильтры и выпусти погулять – увидим у него "агентность", пусть и своеобразную.
Сообщение изменено: terminalX (02 апреля 2023 - 02:38)
Кстати, у Кузнецова сомнительный довод про агентность с 22 минуты. В социологии его использовать всерьез – нормально, там он не претендует на что-то большее, чем свободу действия в контексте социальных ограничений. А то, как он используется в аналитической философии (как в данном случае) – не подтверждено экспериментально или теоретически, зато опровергается опытами с ТМС. Агентность – интуиция, появляющаяся из сочетания множества скрытых параметров с ценностным восприятием акта. Дай этому роботу тело, несколько сенсорных каналов, сними фильтры и выпусти погулять – увидим у него "агентность", пусть и своеобразную.
Ну нихрена же непонятно. Ты для симпозиума пишешь? Как сам себе анекдот рассказал и смеется. Бесишь!
Кузнецов думает, что раз он может поднять руку без чьей-то просьбы, то у него есть агентность. А робот не может – у него ее нет. И выдает это за какое-то фундаментальное отличие, непреодолимую пропасть. Очень уж наивно для профессионального философа-аналитика с естественным интеллектом. Ту же ошибку совершает, что Деннет, когда пишет о таких вещах.
Еще до выхода 4 версии у него вышло интервью со специалисткой по ИИ. Там во второй половине у них тоже небольшой спор завязался на тему понимания / непонимания. Пытается ему объяснить, что мозг работает по тем же принципам, а осознание – процесс обратного распространения ошибки. Насколько знаю, последнее не доказано, но аналогия интересная.
Кузнецов думает, что раз он может поднять руку без чьей-то просьбы, то у него есть агентность. А робот не может – у него ее нет. И выдает это за какое-то фундаментальное отличие, непреодолимую пропасть.
Ну это ерунда. Алгоритм ИИ вполне может решить поднять руку, если посчитает что есть такая потребность, или просто так. Такая логика ничем не отличается от интерпретации заданных им вопросов и генерированию ответов (реакции) на них. От людей если что и отличает то чувственная, эмоциональная сфера. Как реализовать ощущение радости, боли, восторга, страха, зависти, симпатии, научить хотеть соврать (а не просто имитация), или хотеть сказать правду. Отделять подлых от неподлых) Так, мысли вслух. Предстоит долгая работа и мне вот совсем не ясно что из этого достижимо. А так роботы понимающие что перед ними препятствие и оценивающие их высоту, делающие сальто и т.п. - такое уже пару лет как есть.
А робот не может – у него ее нет. И выдает это за какое-то фундаментальное отличие, непреодолимую пропасть. Очень уж наивно для профессионального философа-аналитика с естественным интеллектом. Ту же ошибку совершает, что Деннет, когда пишет о таких вещах.
Но на данный момент ее нет? И как я понимаю, опасаются именно того, чтобы не появилась?
Но на данный момент ее нет? И как я понимаю, опасаются именно того, чтобы не появилась?
Думаю, тут ключевой момент в том, что нет доказательств, что Кузнецов может самопроизвольно поднять руку. У него есть убежденность (интуиция) самопроизвольности, видимо она и склоняет к подобным заявлениям.
От людей если что и отличает то чувственная, эмоциональная сфера. Как реализовать ощущение радости, боли, восторга, страха, зависти, симпатии, научить хотеть соврать (а не просто имитация), или хотеть сказать правду.
Тут согласен. Но как уже говорил в прошлых обсуждениях – верить в невозможность всего перечисленного у кремниевого ума тоже не стоит. Пока нет рабочей теории сознания, лучше допускать разные версии. Сам больше склоняюсь к теории тождества ментального и физического, поэтому не буду считать ИИ чувствующим, пока не появятся хотя бы косвенные свидетельства.
Имеешь в виду что-то вроде этого?)Думаю, тут ключевой момент в том, что нет доказательств, что Кузнецов может самопроизвольно поднять руку.
Имеешь в виду что-то вроде этого?) https://ru.m.wikiped... Вот бы повторили эксперимент на современном оборудовании, чтобы либо подтвердить эксперимент, либо пополнить предыдущим почетный список BS.
Подобные эксперименты – только одна из причин сомневаться. Их много разных, от физики до философии.
Кстати, было много более современных опытов подобного типа, Хайнеса например. Была прицельная ТМС моторной коры, в таких случаях люди результат вмешательства выдавали за свой волевой поступок, а когда им меняли прицел, говорили, что просто передумали. Префронтальная кора осознает непроизвольность действия только в тех случаях, когда стимуляция происходит в обход центров принятия решений (например, нервной тик или прямая стимуляция мотонейронов). А когда вмешиваешься в сами области принятия решений – для сознания это ОК, типа оно само так захотело.
Так это уже уход в сторону - на счет существования или не существования свободы воли, детерменизма и т.п. Тут же про другое речь, наверное.
Почему же про другое. Там как раз попытка выдать агентность за важное отличие человека от нейросети. Противопоставляет реактивности. Но ведь агентность – так же реактивность, только прошедшая через множество слоев обработки. Мы не можем ее предсказывать из-за множества невидимых факторов. Странно, что вообще такой довод звучит против ИИ, которая тоже далека от реактивности в прямом понимании.
А вообще в целом согласен. Складывается впечатление, что Терминал пишет так, как будто или не осознает, что пишет для неспециализированной аудитории, или осознает, но сознательно умничает, или осознает, но считает, что отсутствие уровня у аудитории - личные проблемы аудитории - пусть спрашивают у чат-бота или гугла.
А вообще в целом согласен. Складывается впечатление, что Терминал пишет так, как будто или не осознает, что пишет для неспециализированной аудитории, или осознает, но сознательно умничает, или осознает, но считает, что отсутствие уровня у аудитории - личные проблемы аудитории - пусть спрашивают у чат-бота или гугла.
А вообще в целом согласен. Складывается впечатление, что Терминал пишет так, как будто или не осознает, что пишет для неспециализированной аудитории, или осознает, но сознательно умничает, или осознает, но считает, что отсутствие уровня у аудитории - личные проблемы аудитории - пусть спрашивают у чат-бота или гугла.
По-разному. Про агентность говорят в ролике на миллионную аудиторию, там же поясняется реактивность, и я думал, что тут люди это посмотрели и поняли. Некоторые слова не проясняю, т.к. кажется что они запомнились по прошлым обсуждениям, где прояснялись (видимо ошибаюсь). Иногда просто не могу отличить понятное слово от непонятного или считаю, что погуглить собеседнику проще, чем мне расписывать комментарий так, что его будут пролистывать.
Надо видимо уменьшить активность, тогда и непоняток меньше будет.
0 пользователей, 8 гостей, 0 скрытых