Перейти к содержимому

Добро пожаловать на ЖЕЛЕЗНЫЙ ФАКТОР!
Рекомендуем Вам зарегистрироваться, чтобы получить полный доступ к форуму. После регистрации Вам будет разрешено создавать топики, писать сообщения, загружать и просматривать фотографии, оценивать посты других форумчан, управлять собственным профилем на форуме и многое другое. Личные сообщения доступны после 50 оставленных на форуме сообщений . Полный доступ к разделу "Химия" так же доступен после 50 сообщений. Если у Вас уже есть аккаунт, войдите здесь, либо зарегистрируйтесь!
Фото

Бар RIHAD

* * * - - 30 голосов

  • Please log in to reply
178221 ответов в этой теме

#165271
terminalX

terminalX

    The Experience Machine

  • Модератор
  • PipPipPipPip
  • 15 731 сообщений
  • Имя: Александр
  • Пол: Мужчина
  • Город: W

Она не понимает ее смысловую нагрузку, это просто "миллион обезъян за миллион лет печатающие роман - война и мир". Они не понимают ,что они сделали.

Исходя из своих представлений о природе сознания, я думаю, что у них нет и никогда не будет субъективного переживания того, что они узнали. А вот целостные функциональные концепции изучаемых предметов у них возможны. Они не "статистические попугаи". Это уже подтверждается экспериментально. Вот один из примеров, про Othello-GPT: https://thegradient.pub/othello/

Такая способность, конечно, не гарантирует, что их внутренние концепции всегда хороши. Как и у людей, они могут быть неполноценным, искаженным, внутренне противоречивыми. Но они есть.



#165272
terminalX

terminalX

    The Experience Machine

  • Модератор
  • PipPipPipPip
  • 15 731 сообщений
  • Имя: Александр
  • Пол: Мужчина
  • Город: W

Так сеть, есть просто некая совокупность элементов.  Прсто некая модель ( геометрическая, описательная- если тебе будет угодно) сложного явления.

Совокупность элементов в том смысле, что программный код работает с объектами, фрагментами памяти с ярлычками, по которым к ним можно обращаться. Любой код, необязательно в стиле объектно-ориентированного программирования. А вот решения о выборе лексем принимаются не дискретным механизмом, т.к. весовые коэффициенты в массивах - это числа с плавающей точкой.


Сообщение изменено: terminalX (16 апреля 2023 - 11:37)


#165273
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку

Точно так же как в нас Творцом была внедрена возможность некоторых чувственных качеств, среди которых рефлексия, сопереживание, эмпатия и т.п., и целая плеяда чувств и состояний таких как радость, горе и т.п., точно так же эти возможности должны быть "внедрены" программистами в "ДНК" и механизм жизнедеятельности ИИ. То есть это "железо", костяк. Оно уже должно быть, с соответствующим влиянием на мыслительные процессы в случае их возникновения.



#165274
terminalX

terminalX

    The Experience Machine

  • Модератор
  • PipPipPipPip
  • 15 731 сообщений
  • Имя: Александр
  • Пол: Мужчина
  • Город: W

Кстати, замечание ИИ что остановка песочных часов в горизонтальном положении останавливает время, что почему-то приравнивается к бесконечности - философия, противоречащая современной науке. Время течет всегда (не как человеческое понятие, а как прошлое-настоящее-будущее. Вот я двинул рукой. Сейчас оно в прошлом. Сейчас шевельну мизинцем. Оно в будущем (кстати передумал шевелить)). Тут-то он себя и выдал, что не тех авторов читает)) Это примерно как его советы о каче и рекомендуемые программы. Не сгенерировал научным подходом пользуясь фундаментальными физиологическими знаниями известными науке и к которым он имел доступ, а просто "порылся в своих лексемах", как говорится. Выдал то где больше всего лайков)))

:lol3:
Ты это серьёзно всё пишешь?
Робот и написал, что это метафора. Красивый образ. Людям сначала "душевность" от машин нужна, а как появляется "душевность" - начинаются претензии из-за неточности. Ладно бы тут случай какой-то неоднозначный был, так ведь всё очевидно.



#165275
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку

terminalX, понятно что метафора. но по-философски :)



#165276
oscid

oscid

    IgG к SARS-CoV-2

  • Участник форума
  • PipPipPipPipPipPip
  • 58 777 сообщений
  • Имя: Андрей
  • Пол: Мужчина
  • Город: Екатеринбург
Рихад, ты сам то так скажем «особенно» интерпретируешь и создаешь смыслы. Поэтому претензии к пониманию метафор роботом выглядят забавно

#165277
Август

Август

    Спортсмен бывший-Человек настоящий

  • Привилегированный пользователь
  • PipPipPipPipPipPip
  • 34 173 сообщений
  • Пол: Не определился

понятно что метафора. но по-философски

Сшит колпак не по-колпаковски.

#165278
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку
Философия - неточность. Так-то все верно) А душевность может быть и точной и нет.

#165279
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Исходя из своих представлений о природе сознания, я думаю, что у них нет и никогда не будет субъективного переживания того, что они узнали. А вот целостные функциональные концепции изучаемых предметов у них возможны. Они не "статистические попугаи". Это уже подтверждается экспериментально. Вот один из примеров, про Othello-GPT: https://thegradient.pub/othello/

Прочитал, через переводчик, с трудом пробрался ч/з дебри. С вороной -это сильно конечно. И вообще - крутой антропоморфизм у авторов. Когда увидел термин НЛП, сразу немного стало скучно, после вороны. НЛП имеет к науке, включая психо, примерно такое же отношение как- напевы пьяным соседом за столом к арии Карузо.


А теперь берем наших, небуржуйских.
Пояснялка для старшеклассника (как раз для меня) , что такое есть GPT ( Игорь Котенков -специалист по ИИ + автор канала "Силосная" -пр машинное обучение)
  • "Чат GPT - это Т-9 из телефона, но на бычьих стероидах " - его фраза.
  • Языковая модель -просто предсказывает следующее слово, оперируя вероятностями.
  • "нейросети это - набор сложных уравнений, в которым хитрым образом подобраны коэффициенты с использованием матриц" Х- это слова подающиеся на вход модели, а у- это слово которые нужно предсказать( LLN ). Нейросеть предсказывает каждое слово последовательно, а не генерит целый текст сразу. Или еще точнее, предсказать представление ( вероятность) следующего слова ( генератор псевдослучайного числа).
  • GPT -нейросеть со сложной архитектурой трансформер( в GPT 2 -было загружено по гиперссылкам 40 Гб информации). В GPT 3 набор данных было 420 Гб, ( в БД - добавлена Википедия, сайты книги) .
ау Терминал, что там про отсутствие изначальных БД?
  • Далее немного техномагии, вдруг сетка научилась чему то ( математика), чему ее специально не учили. Ну как же без техномагии.
  • GPT - 3.5 не отличался от GPT 3 ничем, кроме того, что у пользоателей появилась возможность работать в удобном дружелюбном интерфейсе. И здесь произошел взрыв хайпа.

​См с 35.50 откуда появился интерес у гигантов типа Майкрософта. Деньги Билли, деньги!. Хайп.
Все похоже на ситуацию с векторными вакцинами. Кстати в шахматы GPT 3 играть не умела. Она заточена на тексты.

Самое интересное, всегда в живых комментариях под видео , мне понравился вот этот
" У ребёнка есть стимулы для самообучения, у языковой модели ничего нет, кроме умения отвечать на вопросы. Плюс в ребёнка не нужно вкачивать триллионы текстов, достаточно довольно небольшого количества, потому что ребёнок строит модель мира внутри себя с первых секунд по поступающей информации. И тут важный момент: самая мощная языковая модель принципиально отличается от самого глупого ребёнка тем, что строит не модель мира, а модель модели мира по структурированным данным в виде набора текстов, которые ей подают на вход. Но свойства мира принципиально невыводимы из текстов, тексты - лишь часть описания мира. Примерно это можно сравнить с тем, как составлять пазл из триллиона картинок по подходящим загогулинкам с обратной стороны , не видя картинки. У робота есть только загогулинки. Человеку не нужен триллион паззлов, у него есть понимание, что изображено на картинке/части картинки, для этого хватает десятка/сотни фрагментов. И поскольку свойства надсистем не сводятся к сумме свойств подсистем (эмерджентность), робот не научится методом статистического анализа достоверно определять поведение "чёрного ящика", то есть по характеру загогулинок паззла, глядя на его обратную сторону, нельзя определить, что на картинке. Можно лишь ловко научиться подбирать загогулинки, что GPT и делает сейчас"
***
Просто как свойства радиоприёмника не выводятся из свойств транзисторов и резисторов, так и свойства разума не выводятся из разности потенциалов на синапсах. Это называется "эмерджентность", когда у надсистемы появляются новые свойства, отсутствующие у подсистем. Но чтобы у надсистемы появились новые свойства на основе имеющихся подсистем, эту надсистему надо сперва организовать. Ну вот генеративная НС и разум человека - принципиально разные надсистемы, не хуже и не лучше друг друга, просто разные. Чтобы создать модель, симулирующую разум человека, надо добавить туда ещё массу подсистем, включая стимулы. А вы пытаетесь проводить аналогии, не понимая сути дела. Все равно что утверждать, что дуб и человек - одно и то же, потому что и то и то состоит из органических молекул.


И ??? Где у авторов все вот это ( про внутреннии концепции), про то, что это "черный ящик". Где про лексемы?
[url="""]Как раз - статистические попугаи на бычьих стероидах.[/url]


Такая способность, конечно, не гарантирует, что их внутренние концепции всегда хороши. Как и у людей, они могут быть неполноценным, искаженным, внутренне противоречивыми. Но они есть.

Какие внутренние концепции? Этические правила, которые загружают 400 сотрудников Опен Алл?

Есть и ролик про GPT 4 , но там все уже магия пошла, абсолютная. Стало скучно. В геометрической прогрессии, новым версиям увеличают изначальный объем БД, мощность оперативки, дополняют модулями, прводят более длительное обучение, а потом удивляются быстродействию.
Повторюсь, штука -займет свое место и в таких разработках нужно участовать, но это не Интеллект.

Сообщение изменено: ehdima (16 апреля 2023 - 06:28)


#165280
oscid

oscid

    IgG к SARS-CoV-2

  • Участник форума
  • PipPipPipPipPipPip
  • 58 777 сообщений
  • Имя: Андрей
  • Пол: Мужчина
  • Город: Екатеринбург

Прочитал, через переводчик, с трудом пробрался ч/з дебри. С вороной -это сильно конечно. И вообще - крутой антропоморфизм у авторов. Когда увидел термин НЛП, сразу немного стало скучно, после вороны. НЛП имеет к науке, включая психо, примерно такое же отношение как- напевы пьяным соседом за столом к арии Карузо.


А теперь берем наших, небуржуйских.
Пояснялка для старшеклассника (как раз для меня) , что такое есть GPT ( Игорь Котенков -специалист по ИИ + автор канала "Силосная" -пр машинное обучение)

  • "Чат GPT - это Т-9 из телефона, но на бычьих стероидах " - его фраза.
  • Языковая модель -просто предсказывает следующее слово, оперируя вероятностями.
  • "нейросети это - набор сложных уравнений, в которым хитрым образом подобраны коэффициенты с использованием матриц" Х- это слова подающиеся на вход модели, а у- это слово которые нужно предсказать( LLN ). Нейросеть предсказывает каждое слово последовательно, а не генерит целый текст сразу. Или еще точнее, предсказать представление ( вероятность) следующего слова ( генератор псевдослучайного числа).
  • GPT -нейросеть со сложной архитектурой трансформер( в GPT 2 -было загружено по гиперссылкам 40 Гб информации). В GPT 3 набор данных было 420 Гб, ( в БД - добавлена Википедия, сайты книги) .
ау Терминал, что там про отсутствие изначальных БД?
  • Далее немного техномагии, вдруг сетка научилась чему то ( математика), чему ее специально не учили. Ну как же без техномагии.
  • GPT - 3.5 не отличался от GPT 3 ничем, кроме того, что у пользоателей появилась возможность работать в удобном дружелюбном интерфейсе. И здесь произошел взрыв хайпа.

​См с 35.50 откуда появился интерес у гигантов типа Майкрософта. Деньги Билли, деньги!. Хайп.
Все похоже на ситуацию с векторными вакцинами. Кстати в шахматы GPT 3 играть не умела. Она заточена на тексты.

Самое интересное, всегда в живых комментариях под видео , мне понравился вот этот
" У ребёнка есть стимулы для самообучения, у языковой модели ничего нет, кроме умения отвечать на вопросы. Плюс в ребёнка не нужно вкачивать триллионы текстов, достаточно довольно небольшого количества, потому что ребёнок строит модель мира внутри себя с первых секунд по поступающей информации. И тут важный момент: самая мощная языковая модель принципиально отличается от самого глупого ребёнка тем, что строит не модель мира, а модель модели мира по структурированным данным в виде набора текстов, которые ей подают на вход. Но свойства мира принципиально невыводимы из текстов, тексты - лишь часть описания мира. Примерно это можно сравнить с тем, как составлять пазл из триллиона картинок по подходящим загогулинкам с обратной стороны , не видя картинки. У робота есть только загогулинки. Человеку не нужен триллион паззлов, у него есть понимание, что изображено на картинке/части картинки, для этого хватает десятка/сотни фрагментов. И поскольку свойства надсистем не сводятся к сумме свойств подсистем (эмерджентность), робот не научится методом статистического анализа достоверно определять поведение "чёрного ящика", то есть по характеру загогулинок паззла, глядя на его обратную сторону, нельзя определить, что на картинке. Можно лишь ловко научиться подбирать загогулинки, что GPT и делает сейчас"
***
Просто как свойства радиоприёмника не выводятся из свойств транзисторов и резисторов, так и свойства разума не выводятся из разности потенциалов на синапсах. Это называется "эмерджентность", когда у надсистемы появляются новые свойства, отсутствующие у подсистем. Но чтобы у надсистемы появились новые свойства на основе имеющихся подсистем, эту надсистему надо сперва организовать. Ну вот генеративная НС и разум человека - принципиально разные надсистемы, не хуже и не лучше друг друга, просто разные. Чтобы создать модель, симулирующую разум человека, надо добавить туда ещё массу подсистем, включая стимулы. А вы пытаетесь проводить аналогии, не понимая сути дела. Все равно что утверждать, что дуб и человек - одно и то же, потому что и то и то состоит из органических молекул.


И ??? Где у авторов все вот это ( про внутреннии концепции), про то, что это "черный ящик". Где про лексемы?
[url="""]Как раз - статистические попугаи на бычьих стероидах.[/url]


Какие внутренние концепции? Этические правила, которые загружают 400 сотрудников Опен Алл?

Есть и ролик про GPT 4 , но там все уже магия пошла, абсолютная. Стало скучно. В геометрической прогрессии, новым версиям увеличают изначальный объем БД, мощность оперативки, дополняют модулями, прводят более длительное обучение, а потом удивляются быстродействию.
Повторюсь, штука -займет свое место и в таких разработках нужно участовать, но это не Интеллект.

 

Странные какие то объяснения. Не загружено в него никакой википедии, а обучен он на ней. Там нет БД как таковой. Это как человеку дали прочитать Ленинскую библиотеку. Это отразилось на синапсах мозга, их толщине и связях. 



#165281
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Совокупность элементов в том смысле, что программный код работает с объектами, фрагментами памяти с ярлычками, по которым к ним можно обращаться. Любой код, необязательно в стиле объектно-ориентированного программирования. А вот решения о выборе лексем принимаются не дискретным механизмом, т.к. весовые коэффициенты в массивах - это числа с плавающей точкой.

Ну "кубик бросает", генератор псведослучайных чисел. Поэтому - может по разному отвечать на один и тот-же вопрос. Что добавляет в глазах  "апостолов" - антропоморфности. 



#165282
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Странные какие то объяснения. Не загружено в него никакой википедии, а обучен он на ней. Там нет БД как таковой. Это как человеку дали прочитать Ленинскую библиотеку. Это отразилось на синапсах мозга, их толщине и связях. 

Это вы можете  в комментариях Игорю Котенкову написать, он же специалист по ИИ, думаю больше чем ты или я, там подробно рассказывали как первый ДПТ обучали. По ссылкам. 



#165283
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку

GPT -нейросеть со сложной архитектурой трансформер( в GPT 2 -было загружено по гиперссылкам 40 Гб информации). В GPT 3 набор данных было 420 Гб, ( в БД - добавлена Википедия, сайты книги) . ау Терминал, что там про отсутствие изначальных БД?

Это как я понял движку был вкормлен материал для развития, для обучения. С этой позиции и у нас есть БД, это полученные знания в голове.



#165284
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Это как я понял движку был вкормлен материал для развития, для обучения. С этой позиции и у нас есть БД, это полученные знания в голове.

Блин, а что такое БД ? Это структурированная информация ( упорядоченные , определенным образом хранимые данные.Упорядоченные по определеной схеме. ) -  чай горячий, чай холодный, хуй стоячий , хуй висячий ( извините за мат), калашников - водка, конструктор и автомат.  



#165285
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку

ehdima, это же попытка создать подобие интеллекту человека? И действует по похожим принципам, из известного науке. Мы читаем книжку и что-то оттуда помним. Комп помнит все) Тут уже зависит от объема отведенного на его "память". БД я тут употребил в общем смысле, место для хранения информации. Этим можно назвать и гугл, и книги, и "мозг" ИИ, только там оно уже прожевано своими алгоритмами и усвоено. Хочу сказать что ИИ не гуглит информацию чтобы что-то найти в реальном времени отвечая на вопросы. Он уже все это "прочитал" когда-то, и обращается к своим "знаниям". Так-то я не знаю точно как работает, но думаю что так)


Сообщение изменено: rihad (16 апреля 2023 - 06:51)


#165286
oscid

oscid

    IgG к SARS-CoV-2

  • Участник форума
  • PipPipPipPipPipPip
  • 58 777 сообщений
  • Имя: Андрей
  • Пол: Мужчина
  • Город: Екатеринбург

Блин, а что такое БД ? Это структурированная информация ( упорядоченные , определенным образом хранимые данные.Упорядоченные по определеной схеме. ) -  чай горячий, чай холодный, хуй стоячий , хуй висячий ( извините за мат), калашников - водка, конструктор и автомат.  

 

Ну вот смотри например. Сеть для классификации животных на изображении. ДЛя ее обучения используется скажем 10 ГБ фотографий котиков, собачек и прочих. А размер ее "БеДэ". Т.е. связи и веса разрядов, всего лишь 5000 элеиентов. Грубо говоря 20 килобайт. Никакой БД котиков она не содержит. 



#165287
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

ehdima, это же попытка создать подобие интеллекту человека? И действует по похожим принципам, из известного науке.

Схожее - не всегда одинаковое.

У "компа" - оперирование цифрой ( 1,0),  а у живого - сигналом, по сути аналоговым.

 А аналоговый сигнал, может отличаться частотой, амплитудой, интенсивностью , временем и т.д. Ты когда запоминаешь, не переводишь же просто в цифру с коэффициентами, у тебя работают разные системы. Здесь ассоциативная память на запах ( например запах крови, открывает ключ к негативным воспоминаниям), здесь  на образ  кислоты ( представь лимон, выделится - кислая слюна), очень тонкие взаимодействия. Плюс гуморальная регуляция, гормоны, ферменты и т.д., которые участвуют во всем этом. 

Можно конечно сравнить внешне, силуэт чучела всегда можно принять за человека.

Мы читаем книжку и что-то оттуда помним. Комп помнит все) Тут уже зависит от объема отведенного на его "память". БД я тут употребил в общем смысле, место для хранения информации. Этим можно назвать и гугл, и книги, и "мозг" ИИ, только там оно уже прожевано своими алгоритмами и усвоено. Хочу сказать что ИИ не гуглит информацию чтобы что-то найти в реальном времени отвечая на вопросы. Он уже все это "прочитал" когда-то, и обращается к своим "знаниям". Так-то я не знаю точно как работает, но думаю что так)

См. выше, принцип организации памяти у человека сложней. 


Сообщение изменено: ehdima (16 апреля 2023 - 07:05)


#165288
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Ну вот смотри например. Сеть для классификации животных на изображении. ДЛя ее обучения используется скажем 10 ГБ фотографий котиков, собачек и прочих. А размер ее "БеДэ". Т.е. связи и веса разрядов, всего лишь 5000 элеиентов. Грубо говоря 20 килобайт. Никакой БД котиков она не содержит. 

Но разве кодирование данных, не есть таже БД.  Для тебя она данных не содержит, пока ты не знаешь код. Причем не обязательно прописывать каждую собачку, прописываются общие правила и коэффициенты. Соотвественно объем уже другой, нет 100 собачек, но информация о 100 собачках есть. 



#165289
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку

ehdima, так речь о достижении схожести в результате, не о способе реализации. Есть такая фраза, в переводе с английского: если что-то выглядит как утка, плавает как утка, крякает как утка и ходит как утка, то скорей всего это утка.


Сообщение изменено: rihad (16 апреля 2023 - 07:09)


#165290
terminalX

terminalX

    The Experience Machine

  • Модератор
  • PipPipPipPip
  • 15 731 сообщений
  • Имя: Александр
  • Пол: Мужчина
  • Город: W

Когда увидел термин НЛП, сразу немного стало скучно, после вороны. НЛП имеет к науке, включая психо, примерно такое же отношение как- напевы пьяным соседом за столом к арии Карузо

Это ещё почему?



#165291
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

ehdima, так речь о достижении результата в схожести, не о способе реализации. Есть такая фраза, в переводе с английского: если что-то выглядит как утка, плавает как утка, крякает как утка и ходит как утка, то скорей всего это утка.

Есть еще такая поговорка, - "придурковатая утка" с ружьем, всего лишь -"утка с ружьем", а охотник он и с камнем охотник.

Это о внешней схожести и о внутреннем различии. 



#165292
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Это ещё почему?

Вот этого не ожидал от тебя, честно.  Стороннника научного прогресса.

 

https://ru.wikipedia..._наука

 

"По запросу армии США, Национальная исследовательская комиссия США  (англ.)

рус. исследовала НЛП, в качестве инструмента воздействия на людей.

Комиссия пришла к двум выводам. Во-первых, не найдено свидетельств в пользу НЛП, как инструмента влияния на поведение человека. «Предполагается, что НЛП-тренер может через отслеживание движения глаз и речи воздействовать на мысли, чувства и мнение другого человека.(Dilts, 1983[22]) Нет никаких научных обоснований этой теории.»[23] Во-вторых, комиссия была поражена подходом, который использовался для развития техники моделирования экспертов в НЛП. Метод был разработан путём наблюдений за тремя психотерапевтами во время их сеансов с последующим копированием их вербального и невербального поведения.[6] Вследствие этого комиссия отказалось от дальнейших исследований техники моделирования эксперта, использующихся в НЛП.[24]

Отчет комиссии:

«По отдельности и вместе, эти исследования не дают эмпирических обоснований для постулатов НЛП … или для эффективности НЛП. Комитет не может рекомендовать использование этих не прошедших проверку техник.»[25] [26]


Оригинальный текст (англ.)[показать]

В дополнение, Эдгар Джонсон, технический директор Исследовательского института экологической медицины армии США  (англ.)рус., возглавляющий проект «Jedi», исследующий НЛП, заявил:

«Множество данных показывают, что оно (НЛП) не работает»[27]



#165293
oscid

oscid

    IgG к SARS-CoV-2

  • Участник форума
  • PipPipPipPipPipPip
  • 58 777 сообщений
  • Имя: Андрей
  • Пол: Мужчина
  • Город: Екатеринбург

Но разве кодирование данных, не есть таже БД.  Для тебя она данных не содержит, пока ты не знаешь код. Причем не обязательно прописывать каждую собачку, прописываются общие правила и коэффициенты. Соотвественно объем уже другой, нет 100 собачек, но информация о 100 собачках есть. 

 

Ну так тыж противопоставляешь человека и комп с "бедэ".  Тогда человек, прочитавший википедию, тоже "загрузил бедэ"

 

Бэдэ - это бэдэ. Бэдэ с котиками, это исходные котики. Бэдэ википедии, это сама википедия. А тут не так. В голове человека и нейронки нет никаких котиков. 



#165294
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Ну так тыж противопоставляешь человека и комп с "бедэ".  Тогда человек, прочитавший википедию, тоже "загрузил бедэ"

 

Бэдэ - это бэдэ. Бэдэ с котиками, это исходные котики. Бэдэ википедии, это сама википедия. А тут не так. В голове человека и нейронки нет никаких котиков. 

Есть определенным образом  структурированная и закодированная информация о котиках, это и есть БэДэ.

То есть прочитал про котиков, поторогал котиков, пццарапал котик, увидел котика. Все это структурировано и разложено поэлементно. Но изначальная инфа то есть.

Я  котиков ассоциативно не вывел из свиней.. И  ДПТ не вывел. Только прочитал и у крайней модели увидел ( не понимая пока что под этим подразумевается), но потрогать котика он не может. Дальше раскидали поэлементно. 


Сообщение изменено: ehdima (16 апреля 2023 - 07:23)


#165295
terminalX

terminalX

    The Experience Machine

  • Модератор
  • PipPipPipPip
  • 15 731 сообщений
  • Имя: Александр
  • Пол: Мужчина
  • Город: W

Вот этого не ожидал от тебя, честно.  Стороннника научного прогресса.   https://ru.wikipedia..._наука

Там про нейролингвистическое программирование. А в статье NLP - это natural language processing, обработка естественного языка. Одно из самых ходовых понятий по обсуждаемой теме.



#165296
oscid

oscid

    IgG к SARS-CoV-2

  • Участник форума
  • PipPipPipPipPipPip
  • 58 777 сообщений
  • Имя: Андрей
  • Пол: Мужчина
  • Город: Екатеринбург

Есть определенным образом  структурированная и закодированная информация о котиках, это и есть БэДэ

 

Это подмена понятий. Информация из БД извлекается в неизменном виде. ЧТо положил, то достал. Положил статью википедии, достал статью википедии. Где в нейронке и человеке эта статья в википедии в исходном виде? Нет ее. Есть лишь внутренне представление о внешнем объекте, который может быть воссоздан частично.  Грубо говоря внутри нейронки, как и внутри человека есть лишь чертеж, некая схема объекта, по которой он ее может воссоздать. В БД фотографий котиков лежат именно фотки котиков. А не чертежи котиков, по которым они воссоздаются. 



#165297
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Там про нейролингвистическое программирование. А в статье NLP - это natural language processing, обработка естественного языка. Одно из самых ходовых понятий по обсуждаемой теме.

Это не пересекающиеся дисциплины? Если да, то извиняюсь. Школьнику можно. Аббревиатура идентичная и некое определение похожее. Почему и удивился, от тебя такому вопросу. 



#165298
ehdima

ehdima

    Интересующийся

  • Участник форума
  • PipPip
  • 2 963 сообщений
  • Имя: Dmitry
  • Пол: Мужчина
  • Город: УФО/Сибирь

Это подмена понятий. Информация из БД извлекается в неизменном виде. ЧТо положил, то достал.

БД может  иметь вид -шкафа  с каталогами  в библиотеке, а может быть  иметь сложную структуру ассоциативной памяти человека. В первом случае, чтобы найти информацию о котиках, нужно найти номер ящичка  и нужную карточку , во втором - например надеть на шею пушистый шарф. Но это все сохраненная информация, данные.

Но и первом и во втором и в случае ДПТ - сначала эту информацию нужно туда  "покласть". И если в БД хранится чертеж самолета и информация ( правила  к этому чертежу), пусть даже в виде пляшущих человечков Шерлока Холмса, то это не значит что у объекта с данной информацией ее не было.

 

 

 

 

Положил статью википедии, достал статью википедии. Где в нейронке и человеке эта статья в википедии в исходном виде? Нет ее. Есть лишь внутренне представление о внешнем объекте, который может быть воссоздан частично.  Грубо говоря внутри нейронки, как и внутри человека есть лишь чертеж, некая схема объекта, по которой он ее может воссоздать. В БД фотографий котиков лежат именно фотки котиков. А не чертежи котиков, по которым они воссоздаются. 

см. плящущие человечки Ш. Холмса. Где там информация в исходном виде? Она закодирована. 



#165299
oscid

oscid

    IgG к SARS-CoV-2

  • Участник форума
  • PipPipPipPipPipPip
  • 58 777 сообщений
  • Имя: Андрей
  • Пол: Мужчина
  • Город: Екатеринбург

БД может  иметь вид -шкафа  с каталогами  в библиотеке, а может быть  иметь сложную структуру ассоциативной памяти человека. В первом случае, чтобы найти информацию о котиках, нужно найти номер ящичка  и нужную карточку , во втором - например надеть на шею пушистый шарф. Но это все сохраненная информация, данные.

Но и первом и во втором и в случае ДПТ - сначала эту информацию нужно туда  "покласть". И если в БД хранится чертеж самолета и информация ( правила  к этому чертежу), пусть даже в виде пляшущих человечков Шерлока Холмса, то это не значит что у объекта с данной информацией ее не было.

 

 

 

 

см. плящущие человечки Ш. Холмса. Где там информация в исходном виде? Она закодирована. 

 

Данные в базе данных, реляционной или нереляционной в контексте вычислительной машины хранятся и извлекаются в неизменном виде. 

Положил туда текст из википедии, на выходе идентичный текст из википедии. Можно прибегнуть к кодированию для уменьшения энтропии и экономии места. Но сути это не меняет. База хранит исходный текст википедии.  Как и библиотека. Она хранит и выдает исходные книги. СТруктурировано. С оглавлением быстрым поиском, но это пох. Положили книгу, достали книгу. 

 

Человеческий мозг и искуственные нейронные сети (которые являются некоторым аналогом биологических) не являются в строгом смысле базой данных. Они не хранят исходные данные.

Они хранят свои "впечатления" об исходных данных, предъявленных на вход. И при подаче на вход других исходных данных, которые дают схожие "впечателения" мы получаем на выходе схожую активность.  

 

Мало того, объем памяти БД для хранения текстов википедии прямо пропорционален этому объему текстов.  Объем же нейронной сети задан изначально и неизменен. Объем обучающей выборки ничем не ограничен. Может обучить не на 400 Гб, а на 800 Гб исходных текстов. Это никак не повлияет на архитектуру сети. Количество нейронов и связей не изменится. Изменится внутреннее состояние. 

 

Точно так же как у человека. У тебя же не увеличивается количество мозгов от чтения википедии ))

 

Не знаю зачем ты вообще зацепился за БД ивсе время размазываешь этот термин. Даже если в твоей интерпретации ЧатГПТ это просто БД с википедиецй, то и человек в такой же интерпретации БД с википедией. В этом смысле они идентичны. 



#165300
rihad

rihad

    Мужской подход

  • Участник форума
  • PipPipPipPipPipPip
  • 75 463 сообщений
  • Имя: Рихад
  • Пол: Мужчина
  • Город: Баку

Есть еще такая поговорка, - "придурковатая утка" с ружьем, всего лишь -"утка с ружьем", а охотник он и с камнем охотник.

Это о внешней схожести и о внутреннем различии. 


Вы текущий уровень развития ИИ оцениваете примерно как ветераны тренинга чмырят тех у кого стаж тренинга не больше года)

Моя оценка того что умеют версия 4 да и 3 тоже куда короче - вау) Но может это потому что оцениваю как человек с каким-то опытом в программировании, понимая как круто такое создать.




0 посетителей читают эту тему

0 пользователей, 0 гостей, 0 скрытых