spamsink: (Default)
[personal profile] spamsink
Если кто ещё не видел, после долгого перерыва опубликованы результаты очередного конкурса IOCCC:

https://www.ioccc.org/2024/

Среди призёров - программа длиной 1750 байт, реализующая inference model с поддержкой OpenMP для LLaMa 2 7Gb.

Кто знает короткий джейлбрейк для неё?

Date: 2025-08-05 10:07 pm (UTC)
juan_gandhi: (Default)
From: [personal profile] juan_gandhi
Меня эта Фаза Луны Курдюкова порадовала.

Date: 2025-08-06 06:56 am (UTC)
vak: (Default)
From: [personal profile] vak
С познавательной точки зрения проще было бы изучать изначальную llama2.c:

https://github.com/karpathy/llama2.c/blob/master/runq.c

Date: 2025-08-06 12:31 pm (UTC)
sobriquet9: (Default)
From: [personal profile] sobriquet9

Ничего себе. Тысяча строк — это всё, без скрытых зависимостей? Весь алгоритм inference?

На первый взгляд не видно никаких #include <llama.h> и вызовов функций за пределами стандортных библиотек, но поскольку код из obfuscated C contest, может они скрыты.

Если да, то действительно можно искользовать в образовательных целях.

Edited (HTML syntax) Date: 2025-08-06 12:33 pm (UTC)
Page generated Jan. 29th, 2026 03:28 am
Powered by Dreamwidth Studios