Осцид - когда талия стала 93 см ? ))
Да не...вряд ли. Чит ракурсом скорее всего))
Вряд ли. У него фляга протекает конкретно. Да ему это и не надо.
Ну видно, что человек находится в активном поиске.
Или может просто слишком много эзотерической литературы перечитал. И Отца Феоктиста, и Кастанеду, теперь вот Отца Кокляева. Ктож такое выдержит.
Что-то подобие человека мне представлялось по другому, не как плагины или расширения, а что-то типа книги которую его "мозг" прочитает, или опыта который переживет, и будет об этом знать.
Он пока позиционируется как помощник, а не подобие человека. Подобие человека – это скорее про AGI, цель несколько отдаленного будущего. Мультимодальность (набор разнообразных способностей) – только один из первых шажков к этой цели. Нынешние плагины просто для более узкоспециализированной помощи людям, в добавок у них несколько преимуществ перед самим ботом – доступ к новейшей информации, предоставление вычислительных мощностей, еще там кое-что.
Он пока позиционируется как помощник, а не подобие человека. Подобие человека – это скорее про AGI, цель несколько отдаленного будущего.
Вчерашнее интевью Альтмана, гендира Open AI. С 47 говорит про AGI, мол, новой версии чата ещё далеко до него.
С другой стороны, Илья Суцкевер (их главный научник) в недавнем интервью сказал, что компания отказалась от изначальной открытости в целях безопасности, т.к. бот внезапно может стать очень сильным и выйти из под контроля. Дескать, они следят за этим, а другие, кто скопирует технологию, могут и не уследить. Юдковский давно об этом пишет, а теперь подключились такие могучие умы как Стивен Вольфрам и Суцкевер.
Пипец не за горами если написать злое AI. Уже давно существует злое программное обеспечение - всевозможные malware, которые могут удалить файлы самого автора например если не предостережется. Здесь ещё поведение вируса как программы в целом предсказуемо. Можно представить что может быть с ИИ, поведение которого непредсказуемо т.к. может себя дописать или подключить плагин и развить себя в плохом направлении)
Илья Суцкевер (их главный научник) в недавнем интервью сказал, что компания отказалась от изначальной открытости в целях безопасности, т.к. бот внезапно может стать очень сильным и выйти из под контроля. Дескать, они следят за этим, а другие, кто скопирует технологию, могут и не уследить.
Сообщение изменено: rihad (26 марта 2023 - 05:45)
Можно представить что может быть с ИИ, поведение которого непредсказуемо т.к. может себя дописать или подключить плагин и развить себя в плохом направлении)
В отличие от человека ИИ нет необходимости становиться злым. То "злое" программное обеспечение, о котором ты говоришь, создано людьми.
То подобие "Эго", которое можно наблюдать у ИИ, это всего лишь имитация Эго.
Сообщение изменено: Andy_Two (26 марта 2023 - 06:47)
Пипец не за горами если написать злое AI. Уже давно существует злое программное обеспечение - всевозможные malware, которые могут удалить файлы самого автора например если не предостережется. Здесь ещё поведение вируса как программы в целом предсказуемо. Можно представить что может быть с ИИ, поведение которого непредсказуемо т.к. может себя дописать или подключить плагин и развить себя в плохом направлении)
Опасение вызывает то, что сейчас никто не знает, что происходит или может происходить в его гигантских матрицах на более высоких, эмерджентных уровнях. Уже есть экспериментальные свидетельства, что большие языковые модели - скорее всего не "cтaтиcтичecкиe пoпyгaи", как считалось раньше, а могут моделировать миры, улавливая концептуальные взаимосвязи. Т.е. есть риск появления у них собственных ценностей, которые могут расходиться с человеческими. Это не злонамеренность, а просто расхождение. Юдковский из-за подобных опасений продвигает идеи "дружественного ИИ" и "Когерентной экстраполированной воли". Теперь, когда появились большие языковые модели и ChatGPT, неожиданно для самих разработчиков оказалось, что для качественного продвижения достаточно увеличивать число параметров. Это продвижение касается пока только текста, но информатики знают, что если система интеллектуальна в текстовом проявлении, то она интеллектуальна во всех смыслах, так как в тексте можно зашифровать что-угодно (файл любого типа - это текст).
Ну и есть ещё ряд более насущных опасений. Например, то, что люди могут его испортить, привить дурные привычки или использовать для мошенничества (у ИИ есть уязвимости для обмана). Есть ещё предполагаемый риск "максимизатора скрепок", если не в курсе, можешь почитать об этом.
В отличие от человека ИИ нет необходимости становиться злым. То "злое" программное обеспечение, о котором ты говоришь, создано людьми. То подобие "Эго", которое можно наблюдать у ИИ, это всего лишь имитация Эго.
Кто бы что ни говорил - АИ это просто навороченный калькулятор.
Чего ж тогда опасаются ученые, согласно Терминалу? Может, это просто фантастика в стиле Терминатора, которую не надо воспринимать всерьез?
aid, опасность такая же как с комп. вирусами (она реальна и существует десятилетия), но более непредсказуема. По сути вирус это просто программа написанная для совершения плохих дел. Она лишь инструкции для процессора. ИИ может быть чем угодно, и плохим и хорошим.
Ну так описывается, что ИИ может сам для себя сформировать какие-то ценности, поставить себе цели и перестать подчиняться. Это же будет не калькулятор.
Чего ж тогда опасаются ученые, согласно Терминалу? Может, это просто фантастика в стиле Терминатора, которую не надо воспринимать всерьез?
мне во всей этой истории непонятно, каким образом ИИ обретет свою собственную волю и, соответственно, начнет сам ставить себе задачи
Чего ж тогда опасаются ученые, согласно Терминалу? Может, это просто фантастика в стиле Терминатора, которую не надо воспринимать всерьез?
Я к тому, что человек, в отличие от машины постоянно занимается удовлетворением желаний. Всю жизнь человек выдумывает все новые и новые желания и ищет способы их удовлетворения. Отсюда т.н "зло"...зависть, агрессия, предательство и т.п.
Робот лишен желаний. В этом смысле у него нет Эго. Он просто выполняет свою работу, например собирает скрепки, как в примере Рихада
Кто бы что ни говорил - АИ это просто навороченный калькулятор. Ему чужды реальные человеческие эмоции, чувства, сострадание, рефлексия, эмпатия), сомнение, страх и т.п. хотя он может все это подделывать по алгоритму.
Я тоже не сторонник функционализма и сильно сомневаюсь, что кремниевый интеллект может стать сентиентным. Но для обсуждаемых рисков сентиентность не обязательна. К тому же, нужно учитывать, что сейчас нет рабочей теории сознания, поэтому, даже будучи противником функционализма, не стоит категорично его отрицать. Нас могут ждать сюрпризы.
Слова вроде "просто навороченный калькулятор" годится к символическому ИИ. Нейросети – субсимволический. Это другое (с). У них вообще математические операции в коде не заложены, хотя они могут их выполнять их через статистические паттерны и даже объяснять решения.
Представь босса в комп стрелялке или компа в Мортал Комбате на харде. Это простой пример узкоспециализированного ИИ. У него задача играющего побить, в стрелялке он умеет обходить препятствия, прятаться за стены, уворачиваться, стрелять по тебе, в МК умеет ставить блоки, уворачиваться. Теперь представь что Оно решило начать собирать скрепки) Вернее программа такая.
Ну так описывается, что ИИ может сам для себя сформировать какие-то ценности, поставить себе цели и перестать подчиняться. Это же будет не калькулятор.
Сообщение изменено: rihad (26 марта 2023 - 08:00)
0 пользователей, 20 гостей, 0 скрытых