Математики добрались до нейронных сетей
На arxiv.org выложен интересный препринт: Every Model Learned by Gradient Descent Is Approximately a Kernel Machine.
Как видно из названия, исследователи утверждают, что нейронные сети, обученные методом градиентного спуска (один из самых распространённых вариантов обучения) близки такой штуке как kernel machines — одной из техник машинного обучения «предыдущего поколения».
У kernel machines есть несколько интересных особенностей:
- Техника хорошо проработана математически.
- Требует значительно менее дорогих вычислений.
- Вместо «выделения» признаков «напрямую» использует обучающую выборку.
Из этого может неслучиться несколько интересных вещей.
- «Готовая» математика упростит сети и/или улучшит их результат и/или ускорит/удешевит обучение.
- Область возможностей сетей очертится более чётко — окажется, что они не выделяют никакие новые признаки, а используют только «запутанные» данные из обучающей выборки.
Оба варианта выглядят довольно интересно.
Читать далее
- Reasoning LLMs are Wandering Solution Explorers
- О книге «Изобретение науки»
- Feature Programming
- Жизнь и работа с ошибками
- О книге «Масштаб»
- О книге «Иллюзия знания»
- О роли функции и отбора в эволюционирующих системах
- О книге «Логика случая»
- Ценообразование на старте монетизации Feeds Fun
- Жизнь и работа с моделями