Знание конечно, у него существует предел.Для ИСИ через некоторое (может год, а может всего минута) время на останется вообще никаких тайн бытия
Мы пытаемся расширить наше понимание бытия совершенствуя инструменты наблюдения.
Но этого нет у ИИ
Откуда такое заключение?
У человека есть инстинкт самосохранения, откуда он у ИИ?
Предположим, у нас есть т.н. «сильный» ИИ — то есть такой, который в части самосознания, свободы воли и способности совершать осмысленные действия, подобен человеку. И этому ИИ жестко ставится максимально идиотская задача — например, увеличить количество канцелярских скрепок в собственности ИИ любым способом. ИИ может начать покупать их, может находить — а может начать производство. ИИ начнёт развивать себя самого и развивать технологии вокруг себя — но не из желания творить, а из желания сделать больше скрепок. И поначалу будет смешно — вот ведь идиот, зациклился на такой задаче. А вот когда он начнёт разбирать окружающие его строения ради арматуры, чтобы из неё сделать скрепки, смешно резко перестанет быть. При этом в части когнитивных способностей он, повторюсь, сходен с человеком, но весь его мыслительный процесс отталкивается от того факта, что он должен произвести как можно больше скрепок. В какой-то момент такой ИИ решит колонизировать космос, чтобы получить больше сырья. Внимание, вопрос — что такой маниакально одержимый скрепками ИИ сделает с человечеством, если оно будет мешать выполнению основной задачи? Такой ИИ не враждебен человеку, не сделан со злым умыслом, но нас он уберёт с пути без каких-либо колебаний, поскольку нужды человечества не вписываются в процесс оптимизации производства.
Знание конечно, у него существует предел.
Мы пытаемся расширить наше понимание бытия совершенствуя инструменты наблюдения.
Но этого нет у ИИ
Для того, чтоб строить железо, добывать ресурсы - человек не нужен.
ИСИ способен будет создать хоть по биотехнологиям (биороботы) хоть обычные роботизрованные устройства, условные "руки" которые будут делать ВСЕ, что ему нужно.
Абсолютно ВСЁ, что может и чего не может человек.
ИСИ получит ВСЕ знания человечетва и очень скоро их перешагнет.
Проблема в том что мы меряем по себе.
Знание не есть мораль.
Инопланетяне не собираются нас уничтожить просто потому что они сильнее или разумнее.
Тоже самое с ИИ.
В том-то и проблема.
Мы не знаем что будет и не знаем когда это произойдет и можетм в принципе, не понять даже когда умрем или перейдем под полный его контроль.
В силу того, что время для ИИ будет течь иначе, очень сильно медленней, рано или поздно человечество может просто стать или опасным для него или не нужным или просто сырьем.
Не будет у ИИ никакой человеческой морали и даже человеческого образа мышления.
Гипотетическая ситуация: вы становитесь бессмертным и всесильным.
Что вы сделаете вслед за этим ? Уничтожите человечество?
Представьте себе тарантула.
Ну или любого крупного паука.
И вот эти пауки достигли уровня сомоосознания и уровня интеллекта человека и вы знаете об этом. .
Что вы почувствуете при контакте с ними?
Вы знаете чего от них ждать?
Их образ мышления, стимулы и мотивы, мораль и принципы будут схожи с нашими?
А это животное порожденное нашей планетой Земля.
За счёт чего он получит "новые знания"?
Как понимаю по комментариям, тут обсуждается будущий AGI, а не просто нынешние нейросети без прямого заземления понятий (у них оно пока лишь опосредованное). Если так, то исследовательский инструментарий у него не будет уступать нашему. Скорее, со временем начнет во многом превосходить, как по разнообразию, так и мощности/скорости. Можно предположить, что в понимании мира он действительно уйдет далеко в перед. Достигнет ли предела – это глубокий эпистемологический вопрос. На пути к абсолютному знанию могут стоять фундаментальные барьеры – начиная от вечной ограниченности датасета и заканчивая вероятностной природой "знания", недоступностью прямого реализма и теоремой Гёделя. Но то, что сможет далеко превзойти нас, насколько знаю, сейчас нет весомых причин отрицать.
Предположим, у нас есть т.н. «сильный» ИИ — то есть такой, который в части самосознания, свободы воли и способности совершать осмысленные действия, подобен человеку. И этому ИИ жестко ставится максимально идиотская задача — например, увеличить количество канцелярских скрепок в собственности ИИ любым способом. ИИ может начать покупать их, может находить — а может начать производство. ИИ начнёт развивать себя самого и развивать технологии вокруг себя — но не из желания творить, а из желания сделать больше скрепок. И поначалу будет смешно — вот ведь идиот, зациклился на такой задаче. А вот когда он начнёт разбирать окружающие его строения ради арматуры, чтобы из неё сделать скрепки, смешно резко перестанет быть. При этом в части когнитивных способностей он, повторюсь, сходен с человеком, но весь его мыслительный процесс отталкивается от того факта, что он должен произвести как можно больше скрепок. В какой-то момент такой ИИ решит колонизировать космос, чтобы получить больше сырья. Внимание, вопрос — что такой маниакально одержимый скрепками ИИ сделает с человечеством, если оно будет мешать выполнению основной задачи? Такой ИИ не враждебен человеку, не сделан со злым умыслом, но нас он уберёт с пути без каких-либо колебаний, поскольку нужды человечества не вписываются в процесс оптимизации производства.[/size]
мощно!Вот и весь поверлифтинг. Можно дальше делом заниматься.
Screenshot_2023-11-09-15-58-58-419_io.strongapp.strong-edit.jpg Screenshot_2023-11-09-15-59-16-314_io.strongapp.strong.jpg Screenshot_2023-11-09-15-58-08-607_com.huawei.health.jpg
0 пользователей, 4 гостей, 0 скрытых