Пост родился из главы итогов года, которая поясняла всплеск моей активности в блоге. Глава разрослась и была не особо нужна, поэтому вынес в отдельный текст.
Он состоит из трёх частей:
Первая часть вряд ли вам будет интересна — это скорее подводка для меня к следующим главам.
Расскажу чем занимался весь год, сколько чего прочитал, сколько написал, какие посты считаю лучшими и что планирую на год следующий.
Но лучше всё-таки поругайте. Похвалить я и сам могу ;-)
Бложику нужна обратная связь от читателей.
Мне нравится как он изменился за последний год: посерьёзнел, обрёл некоторую самобытность. Как мне кажется. Подробнее об этом я постараюсь рассказать в отдельном посте.
А, и самое главное — блог читают о_О Привет читатели!
Чтобы и мне и бложику развиваться дальше, необходимо исправлять слабые места и находить новые возможности. Некоторые вещи я вижу, но определённо не все и не в том свете, в котором видите вы.
Поэтому я буду очень благодарен за пару слов с критикой или советами от вас мне:
Пишите где вам удобно: в комментариях к посту, в телеграмме, в facebook, на почту, etc.
Заодно, принимаю заказы на посты. Пишите интересующие вас темы, постараюсь их раскрыть, если получится :-)
Дарю идею для стартапа. Практически голубой океан, как минимум на пост СССР.
Надо делать франшизу кружков черчения.
Но не для подготовки инженеров, а для хобби. А-ля лепка из глины, рисование, игра на гитаре, бальные танцы. Как современную замену каллиграфии.
Смотрите:
На arxiv.org выложен интересный препринт: Every Model Learned by Gradient Descent Is Approximately a Kernel Machine.
Как видно из названия, исследователи утверждают, что нейронные сети, обученные методом градиентного спуска (один из самых распространённых вариантов обучения) близки такой штуке как kernel machines — одной из техник машинного обучения «предыдущего поколения».
У kernel machines есть несколько интересных особенностей:
Из этого может неслучиться несколько интересных вещей.
Оба варианта выглядят довольно интересно.