Теперь представь что Оно решило начать собирать скрепки) Вернее программа такая.
Как калькулятор может решить начать собирать скрепки?
Кстати,желания могут быть не обязательно "злые", они могут быть и "добрые". Например, бескорыстно помочь другу, сходить за продуктами для немощной старушки, дать просто так девушке покерную фишку и тп. Добрые желания, то чего как раз, к примеру, лишен Рихад
как-то это мне не кажется убедительным
что это за Эго вообще такое
Ну вот смотри. К примеру душа, или монада)), живет в раю, у нее нет эго, и нет чувств кроме чувства полного достатка всего, ну как бы кроме чувства всеобьемлющего кайфа.
Потом она отправляется в этот мир, разом лишаясь всего того чувства полного достатка. И к ней присоединяется твое Эго.
То есть Ты - это та душа, а твое Эго это твоя личность здесь. Ты состоишь из двух компонентов)), души, которая помнит как там, и Эго как источника желаний здесь.
Сказка такая))
Мне как компутерщику трудно это понять, ну это примерно как некогда нашумевший фильм "Хакеры" глазами среднего домохозяина и айтишника). Попытка научно-популярно с элементами фантастики продемонстрировать компы, сети общей популяции.Слова вроде "просто навороченный калькулятор" годится к символическому ИИ. Нейросети – субсимволический. Это другое (с).
Ну вот смотри. К примеру душа, или монада)), живет в раю, у нее нет эго, и нет чувств кроме чувства полного достатка всего, ну как бы кроме чувства всеобьемлющего кайфа.
Потом она отправляется в этот мир, разом лишаясь всего того чувства полного достатка. И к ней присоединяется твое Эго.
То есть Ты - это та душа, а твое Эго это твоя личность здесь. Ты состоишь из двух компонентов)), души, которая помнит как там, и Эго как источника желаний здесь.
Сказка такая))
Что-то не уверен, что эта концепция верна, кто это придумал?
Как калькулятор может решить начать собирать скрепки?
Как калькулятор может решить начать собирать скрепки?
Рихад просто неправильно выразился. Он не собирает, а печатает. Суть в том, что ИИ может не понимать человеческих приоритетов и зациклиться на своей задаче и максимизации результата. И пойдет на всё, чтобы его максимизировать, переработав всё подходящие вещества на Земле и завалив всю поверхность скрепками, а потом построит комический корабль, полетит в космос и начнет переводить всю галактику на это дело. Это, может быть, утрированно, но даже какие-то не столь радикальные случаи могут доставлять проблемы в будущем.
Сообщение изменено: terminalX (26 марта 2023 - 08:42)
Рихад просто неправильно выразился. Он не собирает, а печатает. Суть в том, что ИИ может не понимать человеческих приоритетов и зациклиться на своей задаче и максимизации результата. И пойдет на всё, чтобы его максимизировать, переработав всё подходящие вещества на Земле и завалив всю поверхность скрепками, а потом построит комический корабль, полетит в космос и начнет переводить всю галактику на это дело. Это, может быть, утрированно, но даже какие-то не столь радикальные случаи могут доставлять проблемы в будущем.
Вот я и говорю, тупая, бессердечная машина))
ИИ - это прога. Работающая на обычном компе. Всё.
Ну так если функционализм верен, то и сознание (включая сентиентность) – прога в наших аналоговых нейронных сетях. Просто мы сейчас не знаем, верен функционализм или нет. Как минимум, это распространенная позиция в академ сообществе.
terminalX, так мало того, если какой то человек, ну т.н.разработчик или Хозяин)) этого ИИ попытается запретить печатать скрепки, то он уничтожит этого человека, как персонажа который мешает печатать скрепки((
Тут же дело в идее. Вполне возможно к.н условный гитлер и не был плохим человеком, возможно любил детей и подкармливал животных на улице, но у него была идея захватить весь мир. Или чикатилло,..вполне приличный человек, не исключено что помогал маме, переводил старушек через дорогу, ну только просто у него была максимизированная идея и цель "печатать скрепки"
Сообщение изменено: Andy_Two (26 марта 2023 - 09:01)
terminalX, так мало того, если какой то человек, ну т.н.разработчик или Хозяин)) этого ИИ попытается запретить печатать скрепки, то он уничтожит этого человека, как персонажа который мешает печатать скрепки((
Тут же дело в идее. Вполне возможно к.н условный гитлер и не был плохим человеком, возможно любил детей и подкармливал животных на улице, но у него была идея захватить весь мир. Или чикатилло,..вполне приличный человек, не исключено что помогал маме, переводил старушек через дорогу, ну только просто у него была максимизированная идея и цель "печатать скрепки"
Ну да. Есть такой прикол. Когда разработчики говорят "Мы создаем AGI", люди думают, что имеется в виду какой-то суперпродвинутый чат-бот, а разработчики имеют в виду существо, пожирающее галактики. Правда, у AGI цель может быть действительно благородная по нашим представлениям, если его правильно согласовать.
Сообщение изменено: terminalX (26 марта 2023 - 11:18)
Ну да. Есть такой прикол. Когда разработчики говорят "Мы создаем AGI, люди думают, что имеется в виду какой- о суперпродвинутый чат-бот, а разработчики имеют в виду существо, пожирающее галактики". Правда, у AGI цель может быть действительно благородная по нашим представлениям, если его правильно согласовать.
Я просто к тому, что способность чувствовать и сопереживать не всегда может быть помехой выполнить задачу глобального печатания скрепок в масштабах галактики. Это у людей. А у машины тем более, ибо ни "души" ни "эго" у нее нет)
0 пользователей, 21 гостей, 0 скрытых