Сбер выпусти свой генератор текста, основанный на GPT-2. Я попробовал скормить ему сказочные описания действий героев. Проверял на jupiter note, опубликованной в вебе, так что вы тоже можете с ней поиграть.
Обновлено: говорят, использовали на GPT-3, а GPT-2 с доработками.
Получилось средненько — не на тех текстах всё-таки нейронка обучалась. Вот если бы ей фэнтези скормили… Текст получается осмысленный, но чувствуется явная нехватка контекста.
Самые интересные примеры под катом.
В тексте о чертах современного экзокортекса я резюмировал его суть следующим образом: единообразное автоматизируемое взаимодействие с качественной личной информацией из гетерогенных источников.
Давайте теперь подумаем о функциональности подобной системы. Пока без конкретики сформулируем требования и ограничения, которые уместно к ней применить.
Из-за непрекращающегося бардака в мире решил отвлечься от стресса и в итоге три недели учился кодить на Julia — портировал с Python один из своих экспериментальных проектов.
Я уже писал про впечатления от документации Julia — «теорию», а сейчас, так сказать, будет «практика».
Тезисно скажу пару слов об организации информации: зачем это нужно, на что влияет и от чего зависит.
Не в контексте программирования, а «вообще» в процессе жизнедеятельности. Конечно, к программированию всё сказанное тоже относится.
Хочу поделиться некоторыми мыслями о природе символов. Даже не столько мыслями, сколько очевидными фактами, которые по непонятным мне причинам некоторым не известны.
Под символом будем понимать любой знак или его эквивалент в широком смысле: флаги, движения, гербы, песни, здания — что угодно, что может «символизировать».