От криптоанализа к AI-forensics:
Краткое содержание
От криптоанализа к AI-forensicsМы привыкли считать LLM «чёрным ящиком»: дал промпт — получил ответ. Максимум — подкрутил fine-tuning или LoRA и надеешься, что стало лучше. Мы пошли в другую сторону. В предыдущей статье я показал, что подписиSchnorr / MuSig2можно разобрать до уровня строгих affine-инвариантов и работать с ними как с математической системой, а не как с магией. В этой работе мы сделали следующий шаг: перенесли ту же exact-методологию внутрь нейросети.Что мы сделали? Мы взяли локальный MLX-дистрибутив:gpt-oss-20b-TurboQuant-MLX-8bitи не стали его «обучать заново». Вместо этого: вскрыли.safetensorsна уровне квантованных кодов; построили детерминированный calibration cache; начали сниматьреальные BF16-активациис конкретных слоёв; свели задачу клокальной integer-оптимизации квантованных весов; реализовалибезопасный patch прямо в модель; и добавили smoke-check, который проверяет: совпадает ли наша математика с реальным runtime MLX.Что получилосьМы впервые получили pipeline, в котором: квантованный слойнаблюдаем; его поведениеизмеримо; его можнолокально корректировать; и самое важное - можно проверить,не обманывает ли нас сама среда исполнения. Например: дляrouter.weightмы получили почти полный перенос улучшения на holdout; дляq_projсистема честно доказала: без внешнего эталона patchне имеет смысла. И это, возможно, даже важнее.Читать далее
Полный текст статьи пока не загружен.