AnatolyR писал 03 Нов 2024 - 16:29:
100 чего? Кг?
Попугаев. Кроссовер. Хз что там
IDKFA писал 06 Нов 2024 - 14:59:
Заметил такую вещь: делаю три упражнения на мг (типа под разными углами и всë такое).
Первое заходит на ура, но не выкладываюсь, ведь впереди ещë два.
Второе - уже без души. Для мышцы ничего нового, а общую усталость добавляет. Просто пашешь "для надо". Третье - уже вообще на отвали.
Ну я и подумал, ну его нафиг такое, буду делать по одному движению на мг в день, но на полную катушку.
А раз одно движение, то вполне логично фулбади.
Расставил по приоритету:
трицепс, бицепс, верх груди, спина, задняя дельта, средняя, бицепс бедра. 7 упражений, немного вроде.
Попробовал сегодня.
Трицепс, бицепс и верх груди зашли на ура. Поработал подходов на десять в каждом.
Остальное - сделал по одному дропсету для экономии времени. Типа в поддержке.
В целом понравилось. Можно каждый день гонять каждую мг, меняя движения
А где же квадры?
renepjd писал 07 Нов 2024 - 18:35:
тю блин
Я думал рука уже полтос, а тут шняга какая-то
Давай братан, сначала введу в курс за понятия фраеров-ученых, чтобы ты смог вкурить суть.
График
График, братка, — это, по сути, такая картина, где видно, как что меняется. Это как если бы рисовал линию, чтоб глядеть, как дело продвигается. Одну линию тянешь вбок — это как время идёт, а вторую вверх или вниз — это уже что там происходит: лучше становится или хуже.
Грубо говоря, график — это такой наглядный расклад, как всё движется: видно, поднимается ли что-то или скатывается. Полезная штука, чтоб не по словам понимать, а глядя на рисунок, сразу всё ясно — где косяк, где успех, и вообще, как дела идут.
Интеграл
Это как взять и посчитать общую площадь под каким-то графиком. Представь, тебе надо понять, сколько воды накапает с дождя на стол — так вот, интеграл бы дал точное число этой воды, посчитал бы каждый капельку и сложил всё вместе.
Распределение Вон Мизес-Фишера, братка, — это вообще тема интересная, если по-простому разобраться. Короче, представь себе, что у тебя кучка точек, которые все как бы тянутся к одной точке, к центру, но не стоят по струнке, а как облачко вокруг неё крутятся. Это не просто разброс, а, знаешь, как притяжение такое, типа “все к одному батю тянутся, но с разлетом”. Точки вроде бы вокруг центра тусуются, но не жёстко — немного раскиданы, как братва вокруг авторитета, но по кругу или сфере. В натуре плотная стайка такая, но не в ряд.
Этот Вон Мизес-Фишер придумал, как этот разброс математически уложить, чтоб ты мог посчитать, где каждая точка тусуется, на сколько близко к центру и в каком направлении. Вроде бы порядок, но с хаотичными элементами.
Константы
Это что-то постоянное, цифра, которая остаётся неизменной, типа "крепкий якорь", на который всё опирается. К примеру, 3.14 — это постоянное число пи, и его всегда используют для круга. Так и здесь — не меняются, задают основу.
Метод Монте-Карло
О, это вообще интересно: тут дело как в казино — сидим, рандомно тыкаем, но так много раз, что в среднем выходим на верное значение. Если обычные методы как бы шаг за шагом ведут к ответу, то этот — делает много случайных попыток и смотрит, что выходит. Работает как на удачу, но когда много раз делаешь, попадаешь в точку.
Адам (Adam)
Это алгоритм, который автоматом настраивает вес для обучения модели. Представь, что у тебя балансиры в мозгах, и Адам их подкручивает в нужные стороны. Он как бы умный тренер, который смотрит, где надо притормозить, а где ускориться, чтобы ты шёл к правильному результату и не терялся по пути.
Модель
Модель — это, грубо говоря, та штука, которую мы учим понимать, что к чему. Вот как малому пацану объясняешь, что, например, такое футбик, так и тут. Сначала эта модель пустая, ничего не знает, ни в зуб ногой, а мы её обучаем, чтобы она потом умела распознавать, например, какие-то данные и выдавать результат. В нашем случае, она должна сжимать и раскодировать данные так, чтобы ничего не потерялось, и работать как отлаженный механизм.
Вес для обучения модели
Вес — это как настройка для каждого параметра модели, типа её «мышц». Представь, что модель, как атлет, и мы прокачиваем её так, чтобы могла поднимать нужный вес в нужный момент, т.е. правильно обрабатывать данные. Эти веса постоянно подкручиваются во время обучения, чтобы модель понимала, какой кусок данных важен, а какой — не очень. И вот задача в том, чтобы каждый вес точно встал на своё место и не уводил в сторону.
Обучение модели
Процесс, по сути, простой, но мудрёный. Мы загружаем в модель данные, она их прожёвывает, смотрит на результат, потом сравниваем с тем, что хотим получить, и если ошибка есть, то подправляем веса. Так раз за разом, пока не получится нужный результат. Это как качалка — повторяешь подходы, пока мышца не вырастет, так и тут — тренируем её, пока не научится.
Алгоритм
Алгоритм — это как план, по которому всё идёт шаг за шагом, никуда не деться. Представь, ты заходишь в хату, а там порядок по понятиям: что сначала сделать, что потом, и как закончить, чтобы всё ровно было. Алгоритм — это такая цепочка действий, которые ты выполняешь, чтобы результат получить чёткий и без лишней суеты.
Вот представь, как готовишь чай на зоне: сначала наливаешь воду, потом закидываешь заварку, потом ждёшь, пока настоится, и в конце разливаешь по кружкам. Это и есть алгоритм. Всё по порядку, как по нотам. Если где-то в цепи косяк — чай нормальный не получится. Так и в программировании: алгоритм — это порядок, который ты прописываешь, чтобы система, комп, или модель сделали то, что тебе надо, без шума и пыли.
Короче, алгоритм — это просто чёткий план действий, который каждый раз работает, как часы, если всё сделано правильно.
Гиперсфера
Гиперсфера, брат, это вроде как обычная сфера, только в многомерном мире, если так можно сказать. Вот представь себе круг — это у нас двумерная сфера, то есть плоский такой. А трёхмерная сфера — это уже наш привычный шар, типа мячика. Так вот, гиперсфера — это если брать что-то подобное, но ещё больше измерений к этому прикрутить, даже за пределами нашего понимания.
Гиперсфера — это по сути «шар» в четырёх, пяти и даже больше измерениях, где уже обычный взгляд ничего не поймёт. Это чисто для вычислений штука, чтобы моделировать всякие хитрые алгоритмы или расклады данных, как в голове у этого фраера.
Теперь, братан, я сейчас тебе на пальцах разъясню, чё за три метода такие и все эти научные замуты, чтоб по полочкам разложилось.
1. VAE (Вариационный Автоэнкодер)
Это типа такой умный аппарат, который учится сжимать инфу так, чтобы потом можно было раскодировать её обратно с минимальными потерями. Как работает: он берёт данные и прокручивает их через свою систему, при этом моделируя их как бы с погрешностью — не напрямую, а с разбросом, типа по-простому — чтобы стабильность была в процессе. Но это как карта: если угадает, то норм, а если нет — то всё может поехать.
2. AE-GAN (Автоэнкодер с Генеративной Сетью)
Здесь всё с хитростью — два бота против друг друга работают. Один бот (Генератор) рисует инфу, как художник, а второй бот (Дискриминатор) проверяет, лажа или нет. Они друг друга подстёгивают, как на спор, чтоб Генератор научился выдавать всё чётче. Но тут, как и в любом споре, где-то идёт перебор, где-то — недобор, так что стабильности не всегда хватает.
3. WGAN (Вассерштейн-Генеративная Сеть)
Это продвинутый вариант второго метода, который вместо простых проверок глубже копает в математике, чтобы дискриминатор точнее оценивал разницу. У него задачи такие, чтобы каждый раз Генератор шёл в нужную сторону, а не скакал туда-сюда. Но опять же — метод сложный и не всегда идеально отрабатывает.
Теперь поясню, что за понты этот фраер тут гнет прям основательно, типа "гений" местный. Давай, разложу, чем он тут выпендрился:
Гиперсферический автоенкодер в латентном пространстве
Тут он будто говорит, что разбирается в таких задачах, которые обычный чел и не поймёт. Автоенкодер — это типа такой инструмент, чтобы сжимать и обратно раскодировать данные. А гиперсфера и латентное пространство — это его понты про всякие умные конструкции, чтобы вообще никто не догадался, о чём он. Всё для виду, мол, вот какой он крутой теоретик.
Три метода (VAE, AE-GAN, WGAN) с кучей статей
Этот тип решил показать, что он в теме, знает о существующих методах. Дескать, научную тусовку он уважает, читает статьи, знает, как весь мир проблемы решает. Но он тут сразу бьёт контру: мол, методы эти никуда не годятся, их сотрясения воздуха. Мол, он над этим уже давно поржал и сам, в итоге, лучше всех разобрался.
Kernel density estimation с распределением Вон Мизеса-Фишера
Этот момент — он как выложил козырь из рукава. Говорит, что смоделировал плотность с особым приёмом — методом kernel density estimation, и ещё и с особым распределением, чтоб поумничать. Смысл простой: он якобы применил особую математическую фишку, которую не каждый раскусит, и что точность расчётов у него просто «на высшем уровне». Кого-то удивить хочет, типа «посмотрите, я шарю в сложных моделях».
Константный множитель, который удалось сократить
Здесь уже откровенный понт: мол, так умно рассчитал, что даже лишние «константы» сократил. Типа так ловко все параметры свёл к минимуму, что получилась почти чистая математика, без левых обвесов. Но для нас это просто хвастовство: он не столько улучшил, сколько сыпанул термином.
KL дивергенция и метод Монте-Карло
Эти слова он вставил для пущей крутизны. KL дивергенция — это как понять разницу между распределениями, а метод Монте-Карло — рандомный подход для интегралов, типа чтоб упростить расчёты, но звучит наукоёмко. Короче, он хочет показать, что у него расчёты не пальцем в небо, а умные, со смыслом. Понты, конечно, чистые, типа что математику он ест ложками.
Аналитически дифференцируемо, автоградиент, Адам
Здесь он вообще решил добить наповал, мол, у него всё так продумано, что любой комп всё это может автоматом прокручивать. Автоградиент — это чтоб автоматически ошибки исправлялись, Адам — умная регулировка. Примени он это или нет — не важно, главное было вставить, чтобы внушало.
Инструмент, которого ни у кого в мире нет
Финальный аккорд: мол, создал нечто такое, чего нет ни у кого. Он прямо выложил пафосно, что, мол, всем аналогам крышка, а он тут на троне. Льстит себе, что мол, его метод — как нож с заточкой, точнее и лучше всех остальных.
Сообщение изменено: oscid (08 ноября 2024 - 11:56)
IDKFA писал 07 Нов 2024 - 18:08:
Понтанусь немного.
В вычислительной математике ..............
Я ничего, естественно, не понял, но поддержал за адекватную самооценку.
А скромность - стыдливая форма тщеславия.
И уж если кто-то может шевелить не только штангой, но и извилинами, то остается только порадоваться и позавидовать.
Дмитрий,
oscid писал 08 Нов 2024 - 08:51:
Давай братан, сначала введу в курс за понятия фраеров-ученых, чтобы ты смог вкурить суть.
................
Андрей, вот обязательно так безжалостно и нахально давить эрудицией малограмотных?
Здесь могут быть злопамянтные.
Хотя про алгоритм и константу даже я понял.)
Литературно получилось.
Сообщение изменено: Виктор С (08 ноября 2024 - 01:14)
Виктор С писал 08 Нов 2024 - 10:14:
Андрей, вот обязательно так безжалостно и нахально давить эрудицией малограмотных?
Здесь могут быть злопамянтные.
Хотя про алгоритм и константу даже я понял.)
Литературно получилось.
Это не мое )) Это я Жеке перевел с помощью Людвига Аристархыча (это у чатаГПТ 4 такое погоняло)
IDKFA писал 08 Нов 2024 - 13:55:
Есть шанс побить рекорд в жиме?Сегодня предпоследняя "качковская" тренировка перед силовухой.
Делал всякую дичь, пробил пик бицепса и середину груди, убил трицепс, получил огромное удовольствие.
В итоге стëр "качковскую" программу нафиг.
Теперь в памповом блоке бескомпромиссная свобода и импровизация.
А по плану будет только силовуха.
0 пользователей, 1 гостей, 0 скрытых