Даймонд Джаред — довольно известный автор антропологических книг, которых у него уже прилично выпущено. «Мир позавчера» — на текущий момент его предпоследняя книга от 2012 года.
Сам «мир» довольно интересен, предполагаю, что и другие книги Джареда ему не уступают. Но, если вы читаете более фундаментальные вещи, а-ля: Масштаб, Иллюзия знания, Изобретение науки, Сумма Технологии или Логика случая, то не ожидайте эпичных откровений. Будут интересные байки и факты, подтверждающие эволюционный взгляд на мир, но не более того.
Как гласит подзаголовок «Чему нас могут научить люди, до сих пор живущие в каменном веке», книга посвящена описанию жизни традиционных сообществ. Не в смысле традиционности из википедии, когда акцент в определении термина сделан на регулируемость, а именно с акцентом на традиционности — автор рассказывает про сообщества, которые тысячелетия жили по своему «первобытному» укладу, без развития. Почему переводчик выбрал именно такой термин и где он правильнее используется: в википедии или в книге, я не знаю.
Тему Джаред подаёт не как беспристрастный учёный, а через субъективное сравнение традиционного уклада с современным. Местами это идёт на пользу изложению, местами — во вред. В частности, под конец книги автор начинает откровенно натягивать сову на глобус, размышляя о малых языках и здоровом питании. Однако такая подача не вызывает отторжения: автор прожил долгую жизнь, повидал многое, имеет право на своё мнение.
Книга разделена на несколько частей, каждая из которых раскрывает один из аспектов жизни традиционных обществ:
Темы между собой естественным образом пересекаются: не получится говорить о социальных отношениях без разговора о мире и войне, как и об опасности.
Иллюстрирует свои мысли автор примерами в основном с острова Новая Гвинея. На сколько я понял — это одно из его любимых мест на планете, изучению которого он отдал много сил и времени.
На arxiv.org выложен интересный препринт: Every Model Learned by Gradient Descent Is Approximately a Kernel Machine.
Как видно из названия, исследователи утверждают, что нейронные сети, обученные методом градиентного спуска (один из самых распространённых вариантов обучения) близки такой штуке как kernel machines — одной из техник машинного обучения «предыдущего поколения».
У kernel machines есть несколько интересных особенностей:
Из этого может неслучиться несколько интересных вещей.
Оба варианта выглядят довольно интересно.
Google выпустил экспериментальную нейронку, которая создаёт изображения новых существ «по чертежу». «Пример чертежа» на заглавной картинке.
То есть на генерации аватарок развитие нейронок не остановилось и даже не запнулось. Грядут большие перемены, как минимум, на рынке мультимедиа.
Но одна вещь меня пугает: что дозволено Юпитеру, не дозволено быку. Нейронки и процедурная генерация способны очень на многое, но насколько эти технологии будут доступны рядовым разработчикам?
Продолжаю выкладывать концепты. Этот — новый — написал недели две назад, модифицирует идею сами знаете какой игры. Заодно доработал шаблон концепта в сторону большей информативности.
На mmozg.net случилось обсуждение механик сбора ресурсов: какие нравятся, какие не нравятся и так далее. Вынесу в отдельный пост своё веское мнение по этому поводу.
Думаю неправильно ставить вопрос о механиках сбора ресурсов: мы играем не чтобы собирать ресурсы, мы собираем ресурсы, чтобы усиливать игровой опыт.
Поэтому вопрос не в том, какие механики для сбора ресурсов делать, а в том, какие механики сопровождать сбором ресурсов и какие сопутствующие механики-спутники для этого подходят.