spamsink: (Default)
[personal profile] spamsink
Если кто ещё не видел, после долгого перерыва опубликованы результаты очередного конкурса IOCCC:

https://www.ioccc.org/2024/

Среди призёров - программа длиной 1750 байт, реализующая inference model с поддержкой OpenMP для LLaMa 2 7Gb.

Кто знает короткий джейлбрейк для неё?

Date: 2025-08-05 10:07 pm (UTC)
juan_gandhi: (Default)
From: [personal profile] juan_gandhi
Меня эта Фаза Луны Курдюкова порадовала.

Date: 2025-08-06 06:56 am (UTC)
vak: (Default)
From: [personal profile] vak
С познавательной точки зрения проще было бы изучать изначальную llama2.c:

https://github.com/karpathy/llama2.c/blob/master/runq.c

Date: 2025-08-06 12:31 pm (UTC)
sobriquet9: (Default)
From: [personal profile] sobriquet9

Ничего себе. Тысяча строк — это всё, без скрытых зависимостей? Весь алгоритм inference?

На первый взгляд не видно никаких #include <llama.h> и вызовов функций за пределами стандортных библиотек, но поскольку код из obfuscated C contest, может они скрыты.

Если да, то действительно можно искользовать в образовательных целях.

Edited (HTML syntax) Date: 2025-08-06 12:33 pm (UTC)

Profile

spamsink: (Default)
spamsink

January 2026

S M T W T F S
    123
4 56 78910
1112131415 16 17
18192021222324
25262728293031

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 27th, 2026 12:25 am
Powered by Dreamwidth Studios