Добро пожаловать на ЖЕЛЕЗНЫЙ ФАКТОР!
Рекомендуем Вам зарегистрироваться, чтобы получить полный доступ к форуму. После регистрации Вам будет разрешено создавать топики, писать сообщения, загружать и просматривать фотографии, оценивать посты других форумчан, управлять собственным профилем на форуме и многое другое. Личные сообщения доступны после 50 оставленных на форуме сообщений . Полный доступ к разделу "Химия" так же доступен после 50 сообщений. Если у Вас уже есть аккаунт, войдите здесь, либо зарегистрируйтесь!
Она не понимает ее смысловую нагрузку, это просто "миллион обезъян за миллион лет печатающие роман - война и мир". Они не понимают ,что они сделали.
Исходя из своих представлений о природе сознания, я думаю, что у них нет и никогда не будет субъективного переживания того, что они узнали. А вот целостные функциональные концепции изучаемых предметов у них возможны. Они не "статистические попугаи". Это уже подтверждается экспериментально. Вот один из примеров, про Othello-GPT: https://thegradient.pub/othello/
Такая способность, конечно, не гарантирует, что их внутренние концепции всегда хороши. Как и у людей, они могут быть неполноценным, искаженным, внутренне противоречивыми. Но они есть.
Так сеть, есть просто некая совокупность элементов. Прсто некая модель ( геометрическая, описательная- если тебе будет угодно) сложного явления.
Совокупность элементов в том смысле, что программный код работает с объектами, фрагментами памяти с ярлычками, по которым к ним можно обращаться. Любой код, необязательно в стиле объектно-ориентированного программирования. А вот решения о выборе лексем принимаются не дискретным механизмом, т.к. весовые коэффициенты в массивах - это числа с плавающей точкой.
Сообщение изменено: terminalX (16 апреля 2023 - 11:37)
Точно так же как в нас Творцом была внедрена возможность некоторых чувственных качеств, среди которых рефлексия, сопереживание, эмпатия и т.п., и целая плеяда чувств и состояний таких как радость, горе и т.п., точно так же эти возможности должны быть "внедрены" программистами в "ДНК" и механизм жизнедеятельности ИИ. То есть это "железо", костяк. Оно уже должно быть, с соответствующим влиянием на мыслительные процессы в случае их возникновения.
Кстати, замечание ИИ что остановка песочных часов в горизонтальном положении останавливает время, что почему-то приравнивается к бесконечности - философия, противоречащая современной науке. Время течет всегда (не как человеческое понятие, а как прошлое-настоящее-будущее. Вот я двинул рукой. Сейчас оно в прошлом. Сейчас шевельну мизинцем. Оно в будущем (кстати передумал шевелить)). Тут-то он себя и выдал, что не тех авторов читает)) Это примерно как его советы о каче и рекомендуемые программы. Не сгенерировал научным подходом пользуясь фундаментальными физиологическими знаниями известными науке и к которым он имел доступ, а просто "порылся в своих лексемах", как говорится. Выдал то где больше всего лайков)))
Ты это серьёзно всё пишешь?
Робот и написал, что это метафора. Красивый образ. Людям сначала "душевность" от машин нужна, а как появляется "душевность" - начинаются претензии из-за неточности. Ладно бы тут случай какой-то неоднозначный был, так ведь всё очевидно.
Исходя из своих представлений о природе сознания, я думаю, что у них нет и никогда не будет субъективного переживания того, что они узнали. А вот целостные функциональные концепции изучаемых предметов у них возможны. Они не "статистические попугаи". Это уже подтверждается экспериментально. Вот один из примеров, про Othello-GPT: https://thegradient.pub/othello/
Прочитал, через переводчик, с трудом пробрался ч/з дебри. С вороной -это сильно конечно. И вообще - крутой антропоморфизм у авторов. Когда увидел термин НЛП, сразу немного стало скучно, после вороны. НЛП имеет к науке, включая психо, примерно такое же отношение как- напевы пьяным соседом за столом к арии Карузо.
А теперь берем наших, небуржуйских. Пояснялка для старшеклассника (как раз для меня) , что такое есть GPT ( Игорь Котенков -специалист по ИИ + автор канала "Силосная" -пр машинное обучение)
"Чат GPT - это Т-9 из телефона, но на бычьих стероидах " - его фраза.
Языковая модель -просто предсказывает следующее слово, оперируя вероятностями.
"нейросети это - набор сложных уравнений, в которым хитрым образом подобраны коэффициенты с использованием матриц" Х- это слова подающиеся на вход модели, а у- это слово которые нужно предсказать( LLN ). Нейросеть предсказывает каждое слово последовательно, а не генерит целый текст сразу. Или еще точнее, предсказать представление ( вероятность) следующего слова ( генератор псевдослучайного числа).
GPT -нейросеть со сложной архитектурой трансформер( в GPT 2 -было загружено по гиперссылкам 40 Гб информации). В GPT 3 набор данных было 420 Гб, ( в БД - добавлена Википедия, сайты книги) .
ау Терминал, что там про отсутствие изначальных БД?
Далее немного техномагии, вдруг сетка научилась чему то ( математика), чему ее специально не учили. Ну как же без техномагии.
GPT - 3.5 не отличался от GPT 3 ничем, кроме того, что у пользоателей появилась возможность работать в удобном дружелюбном интерфейсе. И здесь произошел взрыв хайпа.
См с 35.50 откуда появился интерес у гигантов типа Майкрософта. Деньги Билли, деньги!. Хайп. Все похоже на ситуацию с векторными вакцинами. Кстати в шахматы GPT 3 играть не умела. Она заточена на тексты.
Самое интересное, всегда в живых комментариях под видео , мне понравился вот этот " У ребёнка есть стимулы для самообучения, у языковой модели ничего нет, кроме умения отвечать на вопросы. Плюс в ребёнка не нужно вкачивать триллионы текстов, достаточно довольно небольшого количества, потому что ребёнок строит модель мира внутри себя с первых секунд по поступающей информации. И тут важный момент: самая мощная языковая модель принципиально отличается от самого глупого ребёнка тем, что строит не модель мира, а модель модели мира по структурированным данным в виде набора текстов, которые ей подают на вход. Но свойства мира принципиально невыводимы из текстов, тексты - лишь часть описания мира. Примерно это можно сравнить с тем, как составлять пазл из триллиона картинок по подходящим загогулинкам с обратной стороны , не видя картинки. У робота есть только загогулинки. Человеку не нужен триллион паззлов, у него есть понимание, что изображено на картинке/части картинки, для этого хватает десятка/сотни фрагментов.И поскольку свойства надсистем не сводятся к сумме свойств подсистем (эмерджентность), робот не научится методом статистического анализа достоверно определять поведение "чёрного ящика", то есть по характеру загогулинок паззла, глядя на его обратную сторону, нельзя определить, что на картинке. Можно лишь ловко научиться подбирать загогулинки, что GPT и делает сейчас" *** Просто как свойства радиоприёмника не выводятся из свойств транзисторов и резисторов, так и свойства разума не выводятся из разности потенциалов на синапсах. Это называется "эмерджентность", когда у надсистемы появляются новые свойства, отсутствующие у подсистем. Но чтобы у надсистемы появились новые свойства на основе имеющихся подсистем, эту надсистему надо сперва организовать. Ну вот генеративная НС и разум человека - принципиально разные надсистемы, не хуже и не лучше друг друга, просто разные. Чтобы создать модель, симулирующую разум человека, надо добавить туда ещё массу подсистем, включая стимулы. А вы пытаетесь проводить аналогии, не понимая сути дела. Все равно что утверждать, что дуб и человек - одно и то же, потому что и то и то состоит из органических молекул.
И ??? Где у авторов все вот это ( про внутреннии концепции), про то, что это "черный ящик". Где про лексемы? [url="""]Как раз - статистические попугаи на бычьих стероидах.[/url]
Такая способность, конечно, не гарантирует, что их внутренние концепции всегда хороши. Как и у людей, они могут быть неполноценным, искаженным, внутренне противоречивыми. Но они есть.
Какие внутренние концепции? Этические правила, которые загружают 400 сотрудников Опен Алл?
Есть и ролик про GPT 4 , но там все уже магия пошла, абсолютная. Стало скучно. В геометрической прогрессии, новым версиям увеличают изначальный объем БД, мощность оперативки, дополняют модулями, прводят более длительное обучение, а потом удивляются быстродействию. Повторюсь, штука -займет свое место и в таких разработках нужно участовать, но это не Интеллект.
Сообщение изменено: ehdima (16 апреля 2023 - 06:28)
Прочитал, через переводчик, с трудом пробрался ч/з дебри. С вороной -это сильно конечно. И вообще - крутой антропоморфизм у авторов. Когда увидел термин НЛП, сразу немного стало скучно, после вороны. НЛП имеет к науке, включая психо, примерно такое же отношение как- напевы пьяным соседом за столом к арии Карузо.
А теперь берем наших, небуржуйских. Пояснялка для старшеклассника (как раз для меня) , что такое есть GPT ( Игорь Котенков -специалист по ИИ + автор канала "Силосная" -пр машинное обучение)
"Чат GPT - это Т-9 из телефона, но на бычьих стероидах " - его фраза.
Языковая модель -просто предсказывает следующее слово, оперируя вероятностями.
"нейросети это - набор сложных уравнений, в которым хитрым образом подобраны коэффициенты с использованием матриц" Х- это слова подающиеся на вход модели, а у- это слово которые нужно предсказать( LLN ). Нейросеть предсказывает каждое слово последовательно, а не генерит целый текст сразу. Или еще точнее, предсказать представление ( вероятность) следующего слова ( генератор псевдослучайного числа).
GPT -нейросеть со сложной архитектурой трансформер( в GPT 2 -было загружено по гиперссылкам 40 Гб информации). В GPT 3 набор данных было 420 Гб, ( в БД - добавлена Википедия, сайты книги) .
ау Терминал, что там про отсутствие изначальных БД?
Далее немного техномагии, вдруг сетка научилась чему то ( математика), чему ее специально не учили. Ну как же без техномагии.
GPT - 3.5 не отличался от GPT 3 ничем, кроме того, что у пользоателей появилась возможность работать в удобном дружелюбном интерфейсе. И здесь произошел взрыв хайпа.
См с 35.50 откуда появился интерес у гигантов типа Майкрософта. Деньги Билли, деньги!. Хайп. Все похоже на ситуацию с векторными вакцинами. Кстати в шахматы GPT 3 играть не умела. Она заточена на тексты.
Самое интересное, всегда в живых комментариях под видео , мне понравился вот этот " У ребёнка есть стимулы для самообучения, у языковой модели ничего нет, кроме умения отвечать на вопросы. Плюс в ребёнка не нужно вкачивать триллионы текстов, достаточно довольно небольшого количества, потому что ребёнок строит модель мира внутри себя с первых секунд по поступающей информации. И тут важный момент: самая мощная языковая модель принципиально отличается от самого глупого ребёнка тем, что строит не модель мира, а модель модели мира по структурированным данным в виде набора текстов, которые ей подают на вход. Но свойства мира принципиально невыводимы из текстов, тексты - лишь часть описания мира. Примерно это можно сравнить с тем, как составлять пазл из триллиона картинок по подходящим загогулинкам с обратной стороны , не видя картинки. У робота есть только загогулинки. Человеку не нужен триллион паззлов, у него есть понимание, что изображено на картинке/части картинки, для этого хватает десятка/сотни фрагментов.И поскольку свойства надсистем не сводятся к сумме свойств подсистем (эмерджентность), робот не научится методом статистического анализа достоверно определять поведение "чёрного ящика", то есть по характеру загогулинок паззла, глядя на его обратную сторону, нельзя определить, что на картинке. Можно лишь ловко научиться подбирать загогулинки, что GPT и делает сейчас" *** Просто как свойства радиоприёмника не выводятся из свойств транзисторов и резисторов, так и свойства разума не выводятся из разности потенциалов на синапсах. Это называется "эмерджентность", когда у надсистемы появляются новые свойства, отсутствующие у подсистем. Но чтобы у надсистемы появились новые свойства на основе имеющихся подсистем, эту надсистему надо сперва организовать. Ну вот генеративная НС и разум человека - принципиально разные надсистемы, не хуже и не лучше друг друга, просто разные. Чтобы создать модель, симулирующую разум человека, надо добавить туда ещё массу подсистем, включая стимулы. А вы пытаетесь проводить аналогии, не понимая сути дела. Все равно что утверждать, что дуб и человек - одно и то же, потому что и то и то состоит из органических молекул.
И ??? Где у авторов все вот это ( про внутреннии концепции), про то, что это "черный ящик". Где про лексемы? [url="""]Как раз - статистические попугаи на бычьих стероидах.[/url]
Какие внутренние концепции? Этические правила, которые загружают 400 сотрудников Опен Алл?
Есть и ролик про GPT 4 , но там все уже магия пошла, абсолютная. Стало скучно. В геометрической прогрессии, новым версиям увеличают изначальный объем БД, мощность оперативки, дополняют модулями, прводят более длительное обучение, а потом удивляются быстродействию. Повторюсь, штука -займет свое место и в таких разработках нужно участовать, но это не Интеллект.
Странные какие то объяснения. Не загружено в него никакой википедии, а обучен он на ней. Там нет БД как таковой. Это как человеку дали прочитать Ленинскую библиотеку. Это отразилось на синапсах мозга, их толщине и связях.
Совокупность элементов в том смысле, что программный код работает с объектами, фрагментами памяти с ярлычками, по которым к ним можно обращаться. Любой код, необязательно в стиле объектно-ориентированного программирования. А вот решения о выборе лексем принимаются не дискретным механизмом, т.к. весовые коэффициенты в массивах - это числа с плавающей точкой.
Ну "кубик бросает", генератор псведослучайных чисел. Поэтому - может по разному отвечать на один и тот-же вопрос. Что добавляет в глазах "апостолов" - антропоморфности.
Странные какие то объяснения. Не загружено в него никакой википедии, а обучен он на ней. Там нет БД как таковой. Это как человеку дали прочитать Ленинскую библиотеку. Это отразилось на синапсах мозга, их толщине и связях.
Это вы можете в комментариях Игорю Котенкову написать, он же специалист по ИИ, думаю больше чем ты или я, там подробно рассказывали как первый ДПТ обучали. По ссылкам.
GPT -нейросеть со сложной архитектурой трансформер( в GPT 2 -было загружено по гиперссылкам 40 Гб информации). В GPT 3 набор данных было 420 Гб, ( в БД - добавлена Википедия, сайты книги) . ау Терминал, что там про отсутствие изначальных БД?
Это как я понял движку был вкормлен материал для развития, для обучения. С этой позиции и у нас есть БД, это полученные знания в голове.
Это как я понял движку был вкормлен материал для развития, для обучения. С этой позиции и у нас есть БД, это полученные знания в голове.
Блин, а что такое БД ? Это структурированная информация ( упорядоченные , определенным образом хранимые данные.Упорядоченные по определеной схеме. ) - чай горячий, чай холодный, хуй стоячий , хуй висячий ( извините за мат), калашников - водка, конструктор и автомат.
ehdima, это же попытка создать подобие интеллекту человека? И действует по похожим принципам, из известного науке. Мы читаем книжку и что-то оттуда помним. Комп помнит все) Тут уже зависит от объема отведенного на его "память". БД я тут употребил в общем смысле, место для хранения информации. Этим можно назвать и гугл, и книги, и "мозг" ИИ, только там оно уже прожевано своими алгоритмами и усвоено. Хочу сказать что ИИ не гуглит информацию чтобы что-то найти в реальном времени отвечая на вопросы. Он уже все это "прочитал" когда-то, и обращается к своим "знаниям". Так-то я не знаю точно как работает, но думаю что так)
Сообщение изменено: rihad (16 апреля 2023 - 06:51)
Блин, а что такое БД ? Это структурированная информация ( упорядоченные , определенным образом хранимые данные.Упорядоченные по определеной схеме. ) - чай горячий, чай холодный, хуй стоячий , хуй висячий ( извините за мат), калашников - водка, конструктор и автомат.
Ну вот смотри например. Сеть для классификации животных на изображении. ДЛя ее обучения используется скажем 10 ГБ фотографий котиков, собачек и прочих. А размер ее "БеДэ". Т.е. связи и веса разрядов, всего лишь 5000 элеиентов. Грубо говоря 20 килобайт. Никакой БД котиков она не содержит.
ehdima, это же попытка создать подобие интеллекту человека? И действует по похожим принципам, из известного науке.
Схожее - не всегда одинаковое.
У "компа" - оперирование цифрой ( 1,0), а у живого - сигналом, по сути аналоговым.
А аналоговый сигнал, может отличаться частотой, амплитудой, интенсивностью , временем и т.д. Ты когда запоминаешь, не переводишь же просто в цифру с коэффициентами, у тебя работают разные системы. Здесь ассоциативная память на запах ( например запах крови, открывает ключ к негативным воспоминаниям), здесь на образ кислоты ( представь лимон, выделится - кислая слюна), очень тонкие взаимодействия. Плюс гуморальная регуляция, гормоны, ферменты и т.д., которые участвуют во всем этом.
Можно конечно сравнить внешне, силуэт чучела всегда можно принять за человека.
Мы читаем книжку и что-то оттуда помним. Комп помнит все) Тут уже зависит от объема отведенного на его "память". БД я тут употребил в общем смысле, место для хранения информации. Этим можно назвать и гугл, и книги, и "мозг" ИИ, только там оно уже прожевано своими алгоритмами и усвоено. Хочу сказать что ИИ не гуглит информацию чтобы что-то найти в реальном времени отвечая на вопросы. Он уже все это "прочитал" когда-то, и обращается к своим "знаниям". Так-то я не знаю точно как работает, но думаю что так)
См. выше, принцип организации памяти у человека сложней.
Сообщение изменено: ehdima (16 апреля 2023 - 07:05)
Ну вот смотри например. Сеть для классификации животных на изображении. ДЛя ее обучения используется скажем 10 ГБ фотографий котиков, собачек и прочих. А размер ее "БеДэ". Т.е. связи и веса разрядов, всего лишь 5000 элеиентов. Грубо говоря 20 килобайт. Никакой БД котиков она не содержит.
Но разве кодирование данных, не есть таже БД. Для тебя она данных не содержит, пока ты не знаешь код. Причем не обязательно прописывать каждую собачку, прописываются общие правила и коэффициенты. Соотвественно объем уже другой, нет 100 собачек, но информация о 100 собачках есть.
ehdima, так речь о достижении схожести в результате, не о способе реализации. Есть такая фраза, в переводе с английского: если что-то выглядит как утка, плавает как утка, крякает как утка и ходит как утка, то скорей всего это утка.
Сообщение изменено: rihad (16 апреля 2023 - 07:09)
Когда увидел термин НЛП, сразу немного стало скучно, после вороны. НЛП имеет к науке, включая психо, примерно такое же отношение как- напевы пьяным соседом за столом к арии Карузо
ehdima, так речь о достижении результата в схожести, не о способе реализации. Есть такая фраза, в переводе с английского: если что-то выглядит как утка, плавает как утка, крякает как утка и ходит как утка, то скорей всего это утка.
Есть еще такая поговорка, - "придурковатая утка" с ружьем, всего лишь -"утка с ружьем", а охотник он и с камнем охотник.
рус. исследовала НЛП, в качестве инструмента воздействия на людей.
Комиссия пришла к двум выводам. Во-первых, не найдено свидетельств в пользу НЛП, как инструмента влияния на поведение человека. «Предполагается, что НЛП-тренер может через отслеживание движения глаз и речи воздействовать на мысли, чувства и мнение другого человека.(Dilts, 1983[22]) Нет никаких научных обоснований этой теории.»[23] Во-вторых, комиссия была поражена подходом, который использовался для развития техники моделирования экспертов в НЛП. Метод был разработан путём наблюдений за тремя психотерапевтами во время их сеансов с последующим копированием их вербального и невербального поведения.[6] Вследствие этого комиссия отказалось от дальнейших исследований техники моделирования эксперта, использующихся в НЛП.[24]
Отчет комиссии:
«По отдельности и вместе, эти исследования не дают эмпирических обоснований для постулатов НЛП … или для эффективности НЛП. Комитет не может рекомендовать использование этих не прошедших проверку техник.»[25][26]
Но разве кодирование данных, не есть таже БД. Для тебя она данных не содержит, пока ты не знаешь код. Причем не обязательно прописывать каждую собачку, прописываются общие правила и коэффициенты. Соотвественно объем уже другой, нет 100 собачек, но информация о 100 собачках есть.
Ну так тыж противопоставляешь человека и комп с "бедэ". Тогда человек, прочитавший википедию, тоже "загрузил бедэ"
Бэдэ - это бэдэ. Бэдэ с котиками, это исходные котики. Бэдэ википедии, это сама википедия. А тут не так. В голове человека и нейронки нет никаких котиков.
Ну так тыж противопоставляешь человека и комп с "бедэ". Тогда человек, прочитавший википедию, тоже "загрузил бедэ"
Бэдэ - это бэдэ. Бэдэ с котиками, это исходные котики. Бэдэ википедии, это сама википедия. А тут не так. В голове человека и нейронки нет никаких котиков.
Есть определенным образом структурированная и закодированная информация о котиках, это и есть БэДэ.
То есть прочитал про котиков, поторогал котиков, пццарапал котик, увидел котика. Все это структурировано и разложено поэлементно. Но изначальная инфа то есть.
Я котиков ассоциативно не вывел из свиней.. И ДПТ не вывел. Только прочитал и у крайней модели увидел ( не понимая пока что под этим подразумевается), но потрогать котика он не может. Дальше раскидали поэлементно.
Сообщение изменено: ehdima (16 апреля 2023 - 07:23)
Там про нейролингвистическое программирование. А в статье NLP - это natural language processing, обработка естественного языка. Одно из самых ходовых понятий по обсуждаемой теме.
Есть определенным образом структурированная и закодированная информация о котиках, это и есть БэДэ
Это подмена понятий. Информация из БД извлекается в неизменном виде. ЧТо положил, то достал. Положил статью википедии, достал статью википедии. Где в нейронке и человеке эта статья в википедии в исходном виде? Нет ее. Есть лишь внутренне представление о внешнем объекте, который может быть воссоздан частично. Грубо говоря внутри нейронки, как и внутри человека есть лишь чертеж, некая схема объекта, по которой он ее может воссоздать. В БД фотографий котиков лежат именно фотки котиков. А не чертежи котиков, по которым они воссоздаются.
Там про нейролингвистическое программирование. А в статье NLP - это natural language processing, обработка естественного языка. Одно из самых ходовых понятий по обсуждаемой теме.
Это не пересекающиеся дисциплины? Если да, то извиняюсь. Школьнику можно. Аббревиатура идентичная и некое определение похожее. Почему и удивился, от тебя такому вопросу.
Это подмена понятий. Информация из БД извлекается в неизменном виде. ЧТо положил, то достал.
БД может иметь вид -шкафа с каталогами в библиотеке, а может быть иметь сложную структуру ассоциативной памяти человека. В первом случае, чтобы найти информацию о котиках, нужно найти номер ящичка и нужную карточку , во втором - например надеть на шею пушистый шарф. Но это все сохраненная информация, данные.
Но и первом и во втором и в случае ДПТ - сначала эту информацию нужно туда "покласть". И если в БД хранится чертеж самолета и информация ( правила к этому чертежу), пусть даже в виде пляшущих человечков Шерлока Холмса, то это не значит что у объекта с данной информацией ее не было.
Положил статью википедии, достал статью википедии. Где в нейронке и человеке эта статья в википедии в исходном виде? Нет ее. Есть лишь внутренне представление о внешнем объекте, который может быть воссоздан частично. Грубо говоря внутри нейронки, как и внутри человека есть лишь чертеж, некая схема объекта, по которой он ее может воссоздать. В БД фотографий котиков лежат именно фотки котиков. А не чертежи котиков, по которым они воссоздаются.
см. плящущие человечки Ш. Холмса. Где там информация в исходном виде? Она закодирована.
БД может иметь вид -шкафа с каталогами в библиотеке, а может быть иметь сложную структуру ассоциативной памяти человека. В первом случае, чтобы найти информацию о котиках, нужно найти номер ящичка и нужную карточку , во втором - например надеть на шею пушистый шарф. Но это все сохраненная информация, данные.
Но и первом и во втором и в случае ДПТ - сначала эту информацию нужно туда "покласть". И если в БД хранится чертеж самолета и информация ( правила к этому чертежу), пусть даже в виде пляшущих человечков Шерлока Холмса, то это не значит что у объекта с данной информацией ее не было.
см. плящущие человечки Ш. Холмса. Где там информация в исходном виде? Она закодирована.
Данные в базе данных, реляционной или нереляционной в контексте вычислительной машины хранятся и извлекаются в неизменном виде.
Положил туда текст из википедии, на выходе идентичный текст из википедии. Можно прибегнуть к кодированию для уменьшения энтропии и экономии места. Но сути это не меняет. База хранит исходный текст википедии. Как и библиотека. Она хранит и выдает исходные книги. СТруктурировано. С оглавлением быстрым поиском, но это пох. Положили книгу, достали книгу.
Человеческий мозг и искуственные нейронные сети (которые являются некоторым аналогом биологических) не являются в строгом смысле базой данных. Они не хранят исходные данные.
Они хранят свои "впечатления" об исходных данных, предъявленных на вход. И при подаче на вход других исходных данных, которые дают схожие "впечателения" мы получаем на выходе схожую активность.
Мало того, объем памяти БД для хранения текстов википедии прямо пропорционален этому объему текстов. Объем же нейронной сети задан изначально и неизменен. Объем обучающей выборки ничем не ограничен. Может обучить не на 400 Гб, а на 800 Гб исходных текстов. Это никак не повлияет на архитектуру сети. Количество нейронов и связей не изменится. Изменится внутреннее состояние.
Точно так же как у человека. У тебя же не увеличивается количество мозгов от чтения википедии ))
Не знаю зачем ты вообще зацепился за БД ивсе время размазываешь этот термин. Даже если в твоей интерпретации ЧатГПТ это просто БД с википедиецй, то и человек в такой же интерпретации БД с википедией. В этом смысле они идентичны.
Есть еще такая поговорка, - "придурковатая утка" с ружьем, всего лишь -"утка с ружьем", а охотник он и с камнем охотник.
Это о внешней схожести и о внутреннем различии.
Вы текущий уровень развития ИИ оцениваете примерно как ветераны тренинга чмырят тех у кого стаж тренинга не больше года)
Моя оценка того что умеют версия 4 да и 3 тоже куда короче - вау) Но может это потому что оцениваю как человек с каким-то опытом в программировании, понимая как круто такое создать.