Конкретно Амодей ссылается на эмпирический факт, что масштабирование работает. Мол, мы не понимаем, почему, но видим его эффективность, значит, нужно продолжать. У некоторых исследователей сейчас скептицизм вызван тем, что данных для обучения остается всё меньше, а без них масштабирование не особо поможет. Он отвечает, что эта проблема решится мультимодальностью, т.е. данных станет в разы больше, если модели будут учиться на полном взаимодействии с людьми и миром, а не только текстах и картинках в интернете. Мультимодальность уже появилась.
А Лекун считает, что любая долгая экспоненциальная кривая в развитии технологий — это на самом деле череда сигмоид, где каждая сигмоида вызвана очередным прорывом, а не просто масштабированием мощностей. Например, знаменитый закон Мура выглядит экспоненциально, но это не потому, что такой характер роста изначально как-то заложен в его "природу", а потому что люди постоянно изобретают новые способы переключить его на всё более высокую сигмоиду. Лекун считает, что настоящего экспоненциального развития не существует, потому что ничто в природе не может развиваться бесконечно. Чтобы обеспечивать подобие такого роста, нужно периодически обновлять парадигмы. Поэтому он очень скептичен к тому, что внезапно нагрянет AGI и задвинет нас. Каждая стадия его роста будет зависеть только от исследователей. Он говорит, что развитие нынешних LLM многие ошибочно принимают за экспоненциальность, а на деле это лиш первая часть логистической кривой, и скоро начнется стагнация, которую придется преодолевать переходом на новый уровень. Но при этом LLMs он уважает, считает их уже мыслящими.
По-мне, позиция Лекуна тоже не выглядит безупречной. Может, при достижении какого-то порога мощностей и мультимодальности, ИИ сами себя начнут двигать на следующие уровни или подкидывать идеи для этого. Да и то, что уже приближаемся к стагнации — пока лишь предположение, это только предстоит проверить.
Несогласные с доводами Лекуна иронизируют картинками.