Forwarded from Denis Sexy IT 🤖
Вы наверное помните, у Китая довольно большие проблему с Уйгурами — Китай всячески их притесняет, не так давно стало известно, что существуют «лагеря задержания», а регион где все это происходит оснащен максимальным количеством всевозможных устройств сбора данных.
На той неделе по цепи уйгуров в сеть утекла информация (CNN, BBC) для внутреннего пользования полиции Синьцзяна от 2017 года. В том числе секретные брифинги, которые показывают, как эта полиция получает приказы от огромного «кибернетического мозга», известного как IJOP, который помечает целые категории людей для расследования и задержания.
Утечка документов включает в себя:
• Руководство по эксплуатации для администрации лагерей задержания.
• Четыре коротких брифинга на китайском языке, известные как «бюллетени», в которых даются рекомендации по ежедневному использованию «Интегрированной платформы совместных операций» (IJOP), инструменты массового наблюдения и прогностической полицейской деятельности, которая анализирует данные из Синьцзяна.
В документах буквально идет речь о том, что некий алгоритм внутри IJOP, обученный на огромном количестве данных (от группы крови до показателей счетчиков электричества, IJOP приложения для полиции, в документе перечислены очень много параметров), способен решать, как задерживать и реагировать на потенциальных преступников, до факта преступления — это принято называть «предиктивная полицейская деятельность».
Например, в «Бюллетене № 14» содержится инструкция о том, как проводить массовые расследования и задержания после того, как IJOP сформировал длинный список подозреваемых. В документе сказано, что за 7 дней в июне 2017 года полицейские задержали 15 683 жителей Синьцзяна, помеченных IJOP, и поместили их в лагеря для интернированных
Это все выглядит как какой-то фильм или книга, где алгоритм решает как жить людям, но я склонен верить, что скорее всего так и есть, утечка подверждена множеством экспертов, включая лингвистический анализ. Страшно подумать, как за 3 года IJOP поумнел.
Правительство Китая утверждает, что все эти документы — фейк.
Весь лонгрид на тему слитых документов можно почитать тут.
На той неделе по цепи уйгуров в сеть утекла информация (CNN, BBC) для внутреннего пользования полиции Синьцзяна от 2017 года. В том числе секретные брифинги, которые показывают, как эта полиция получает приказы от огромного «кибернетического мозга», известного как IJOP, который помечает целые категории людей для расследования и задержания.
Утечка документов включает в себя:
• Руководство по эксплуатации для администрации лагерей задержания.
• Четыре коротких брифинга на китайском языке, известные как «бюллетени», в которых даются рекомендации по ежедневному использованию «Интегрированной платформы совместных операций» (IJOP), инструменты массового наблюдения и прогностической полицейской деятельности, которая анализирует данные из Синьцзяна.
В документах буквально идет речь о том, что некий алгоритм внутри IJOP, обученный на огромном количестве данных (от группы крови до показателей счетчиков электричества, IJOP приложения для полиции, в документе перечислены очень много параметров), способен решать, как задерживать и реагировать на потенциальных преступников, до факта преступления — это принято называть «предиктивная полицейская деятельность».
Например, в «Бюллетене № 14» содержится инструкция о том, как проводить массовые расследования и задержания после того, как IJOP сформировал длинный список подозреваемых. В документе сказано, что за 7 дней в июне 2017 года полицейские задержали 15 683 жителей Синьцзяна, помеченных IJOP, и поместили их в лагеря для интернированных
Это все выглядит как какой-то фильм или книга, где алгоритм решает как жить людям, но я склонен верить, что скорее всего так и есть, утечка подверждена множеством экспертов, включая лингвистический анализ. Страшно подумать, как за 3 года IJOP поумнел.
Правительство Китая утверждает, что все эти документы — фейк.
Весь лонгрид на тему слитых документов можно почитать тут.
В эфире наша новая рубрика “боги нейминга”
Kibana + Clickhouse = Kibouse
https://github.com/ITECOMMPAY/kibouse
https://www.highload.ru/moscow/2019/abstracts/5906
Elasticsearch + Cassandra = Elassandra
https://www.elassandra.io
А каких еще песикотов знаете вы? :)
Kibana + Clickhouse = Kibouse
https://github.com/ITECOMMPAY/kibouse
https://www.highload.ru/moscow/2019/abstracts/5906
Elasticsearch + Cassandra = Elassandra
https://www.elassandra.io
А каких еще песикотов знаете вы? :)
GitHub
GitHub - ITECOMMPAY/kibouse: Clickhouse adapter for Kibana
Clickhouse adapter for Kibana. Contribute to ITECOMMPAY/kibouse development by creating an account on GitHub.
Всегда храните деньги интами. Если, конечно, они у вас еще остались...
Forwarded from oleg_log (Oleg Kovalov)
Вы можете сколько угодно гонять сотрудников по собесам, спрашивать как там в хешмапе работает equals и почему нужен hashcode.
Вы можете даже приглашать звезд разработки и архитектуры на внутренние лекции для ваших любимых инженеров
Попробуйте угадать, спасёт ли это вашу фирму от хранения денег во флоате и соотв потере монеток в конце финансового года? Вот-вот. #саксес_сториз
Вы можете даже приглашать звезд разработки и архитектуры на внутренние лекции для ваших любимых инженеров
Попробуйте угадать, спасёт ли это вашу фирму от хранения денег во флоате и соотв потере монеток в конце финансового года? Вот-вот. #саксес_сториз
Олды тут?
20 лет назад вышел фильм “жестокие игры”. Да ладно, вы все его смотрели. Как и “титаник” :)
В этом году вышел сериал “the politican”. Это что-то среднее между жестокими играми и карточным домиком. Только с бюджетом $300m и от режиссёров “Американская история ужасов”.
Яркие цвета, дорогие тачки, белые американские миллиардеры с автозагаром, дивёрсити и стареющая Гвинет Пэлтроу.
20 лет назад вышел фильм “жестокие игры”. Да ладно, вы все его смотрели. Как и “титаник” :)
В этом году вышел сериал “the politican”. Это что-то среднее между жестокими играми и карточным домиком. Только с бюджетом $300m и от режиссёров “Американская история ужасов”.
Яркие цвета, дорогие тачки, белые американские миллиардеры с автозагаром, дивёрсити и стареющая Гвинет Пэлтроу.
Наверняка есть люди, с которыми я еще не делился этой ссылкой.
Лонгрид про ИИ, который нас всех выпилит с планеты. Или нет. Но это не точно.
Мастрид для тех, кто не понимает что происходит. Для тех кто понимает, но еще не читал, шутрид :)
https://interpreted.d3.ru/perevod-revoliutsiia-iskusstvennogo-intellekta-684922/
Лонгрид про ИИ, который нас всех выпилит с планеты. Или нет. Но это не точно.
Мастрид для тех, кто не понимает что происходит. Для тех кто понимает, но еще не читал, шутрид :)
https://interpreted.d3.ru/perevod-revoliutsiia-iskusstvennogo-intellekta-684922/
interpreted.d3.ru
Революция Искусственного Интеллекта
Помните, как недавно компьютер прошел тест Тьюринга? Давайте уже разберемся с тем, что такое сверхинтеллект, чего нам от него ждать и куда вообще ведут нас все эти компьютерные технологии. В этом посте перевод сразу 2х частей статьи, так и знайте.
Forwarded from it52.jobs
Специалист по FoxPro
привет, Друзья!
Возможно кто-то когда-то увлекался, а возможно кто-то и до сих-пор балуется FoxPro ;)
Ищем специалиста для part time работы, который поможет исправить ошибки и разработать небольшие фичи для упрощения жизни пользователей.
По всем вопросам можно обращаться @ujifyxbr
привет, Друзья!
Возможно кто-то когда-то увлекался, а возможно кто-то и до сих-пор балуется FoxPro ;)
Ищем специалиста для part time работы, который поможет исправить ошибки и разработать небольшие фичи для упрощения жизни пользователей.
По всем вопросам можно обращаться @ujifyxbr
Forwarded from Журнал «Код»
Siri в прямом эфире перебила ведущего прогноза погоды
Голосовая помощница сказала ведущему, что тот не прав.
Во время прогноза погоды на BBC News комментатор рассказывал о грядущем снегопаде в Миннеаполисе и Денвере, как внезапно донесся голос Siri из Apple Watch. Она перебила мужчину и заявила, что вообще-то никакого снега там не ожидается.
Ведущий стал неловко оправдываться, что помощница неправильно поняла, о какой локации идет речь, но было уже поздно.
Глупый кожаный мешок.
https://vk.com/video-179664673_456239241
Голосовая помощница сказала ведущему, что тот не прав.
Во время прогноза погоды на BBC News комментатор рассказывал о грядущем снегопаде в Миннеаполисе и Денвере, как внезапно донесся голос Siri из Apple Watch. Она перебила мужчину и заявила, что вообще-то никакого снега там не ожидается.
Ведущий стал неловко оправдываться, что помощница неправильно поняла, о какой локации идет речь, но было уже поздно.
Глупый кожаный мешок.
https://vk.com/video-179664673_456239241
VK Видео
Siri в прямом эфире перебила ведущего прогноза погоды
Watch Siri в прямом эфире перебила ведущего прогноза.. 27 s from 3 December 2019 online in HD for free in the VK catalog without signing up! Views: 142165. Likes: 630.
Forwarded from Denis Sexy IT 🤖
Интересный алгоритм показал Facebook Research для сжатия видео и картинок – делюсь просто чтобы показать вектор куда могут двигаться алгоритмы сжатия вместе с машинным обучением.
Сжатие видео, да еще и так, чтобы качество не сильно пострадало – это очень сложная техническая задача в которой я почти ничего не понимаю, так что будем называть ее просто задачей со звездочкой.
Алгоритм DeepFovea делает примерно так:
– Нейронка анализирует видео на пример того, куда будет смотреть человек глазами на видео (sic!), то есть да, буквально, нейронка пытается угадать где будет человеческий фокус в видео в данный момент;
– Дальше алгоритм разбивает видео на наборы пикселей (в видео пример);
– Алгоритм синтезирует видео в котором места отведенные под «переферийное зрение» понижены в качестве.
– Как итог, судя по документу, размер видео можно сжать в 14 раз.
Дорогие инженеры, прекратите залезать нам в голову, с каждым годом все страшнее!
Страница проекта, код скоро будет:
https://research.fb.com/publications/deepfovea-neural-reconstruction-for-foveated-rendering-and-video-compression-using-learned-statistics-of-natural-videos/
Сжатие видео, да еще и так, чтобы качество не сильно пострадало – это очень сложная техническая задача в которой я почти ничего не понимаю, так что будем называть ее просто задачей со звездочкой.
Алгоритм DeepFovea делает примерно так:
– Нейронка анализирует видео на пример того, куда будет смотреть человек глазами на видео (sic!), то есть да, буквально, нейронка пытается угадать где будет человеческий фокус в видео в данный момент;
– Дальше алгоритм разбивает видео на наборы пикселей (в видео пример);
– Алгоритм синтезирует видео в котором места отведенные под «переферийное зрение» понижены в качестве.
– Как итог, судя по документу, размер видео можно сжать в 14 раз.
Дорогие инженеры, прекратите залезать нам в голову, с каждым годом все страшнее!
Страница проекта, код скоро будет:
https://research.fb.com/publications/deepfovea-neural-reconstruction-for-foveated-rendering-and-video-compression-using-learned-statistics-of-natural-videos/
Вчера amazon выкатили новый сервис CodeGuru - автоматический code reviewer.
Это ai based сервис “powered by machine learning, best practices, and hard-learned lessons across millions of code reviews and thousands of applications profiled on open source projects and internally at Amazon”
На данный момент поддерживает только java.
Ценник на первый взгляд конский.
Но давайте взглянем в примеры расчетов.
Предполагается, что разработчик на java генерирует 2400 строк кода за рабочий месяц. CodeGuru за это возьмет $18.
Имея опыт разработки на java хотел бы заметить, что это довольно мало.
Разрабатывая на более выразительных языках в ленивом режиме, у меня получается в 2 раза больше кода.
Да, я считал :) Да, я контрол фрик :) Да, про это будет отдельный пост :)
Либо ребята Безоса лукавят, либо у них там в долине какой-то тотальный расслабон.
Почему эта новость важна?
Aws не совершили прорыв.
Уже существуют ai based инструменты для анализа кода: deepcode.ai, codota.com, tabnine.com.
Так же существует много классических статических анализаторов, которые можно встроить в ci.
Во-первых, кажется, что это контр-продуктивный шаг.
Основным преимуществом анализа указывается снижение утилизации CPU. Зачем это нужно компании, которая зарабатывает с продажи процессорного времени?
Мне кажется, таким образом покупается лояльность пользователей, что автоматом увеличивает LTV.
Если вы занимаетесь бизнесом, но еще не читали такие книги как «клиенты на всю жизнь» и «обнимите своих клиентов», вам определенно стоит их прочитать.
Во-вторых, если революцию нельзя предотвратить, нужно ее возглавить.
Лет 10 назад читал интервью создателя «веселой фермы» для vk. Он говорил, что несколько десятков клонов веселой фермы в выдаче vk - его собственные. Зачем тратить усилия на борьбу с конкурентами, если можно их просто размыть.
В-третьих, расширение экосистемы и vendor lock.
Aws сейчас занимает без малого половину рынка, и при этом они не лучшие по цене. Чем больше сервисов клиент сможет получить в режиме «одного окна», тем меньше он будет думать о смене провайдера.
В-четвертых, рост рынка анализа кода.
По неподтвержденным данным сейчас это около $14B и до 2025 вырастит до $26B.
В-пятых, почему не купили существующего игрока этого рынка?
Aws располагает большим арсеналом ML-сервисов и обучить сеть на исходниках наверняка не стоило больших денег. Заметьте, сервис не заявляется как «статический анализатор», разговор идет только про ML.
И последнее. Время уникальных снежинок, рок звезд и 10x инженеров близится к закату. В последнее время открылись врата ада и в айти повалилось огромное количество людей с совершенно разным бэкграундом или совсем без него.
Надо больше кода -> надо больше инженеров -> приходится снижать планку -> кому-то нужно разбирать получившееся добро -> надо больше инженеров.
Для того чтобы компании не завалило под грудами легаси, бизнесу требуются инструменты автоматического контроля продуктов на всех этапах его производства и эксплуатации.
Теперь разработчик ПО не творец. Он просто юнит в большой армии перекладывателей кода из SO и старых проектов в новые проекты. Никакой больше романтики.
Даже верстку уже умеет генерировать AI по ручным скетчам. Не знали? Вот, например: https://blog.floydhub.com/turning-design-mockups-into-code-with-deep-learning/
Так же в тему будет вот такая статья о великой компании Oracle (лицензия БД которой стоит $50k на один процессор): https://habr.com/ru/post/429946/
Если до текущего дня использование анализаторов кода было маркером сознательности компаний, то сейчас мы переходим в новый век. Проверка кода как сервис заставит плакать владельцев галер горькими слезами. Больше не получится с той же легкостью что и раньше перепродавать закончивших курсы «java senior за месяц» втридорога заграничным клиентам. Теперь заказчики будут автоматически получать отчеты о том, что им продают под видом результата работы скиловых разработчиков. Запомните этот твит (с)
Это ai based сервис “powered by machine learning, best practices, and hard-learned lessons across millions of code reviews and thousands of applications profiled on open source projects and internally at Amazon”
На данный момент поддерживает только java.
Ценник на первый взгляд конский.
Но давайте взглянем в примеры расчетов.
Предполагается, что разработчик на java генерирует 2400 строк кода за рабочий месяц. CodeGuru за это возьмет $18.
Имея опыт разработки на java хотел бы заметить, что это довольно мало.
Разрабатывая на более выразительных языках в ленивом режиме, у меня получается в 2 раза больше кода.
Да, я считал :) Да, я контрол фрик :) Да, про это будет отдельный пост :)
Либо ребята Безоса лукавят, либо у них там в долине какой-то тотальный расслабон.
Почему эта новость важна?
Aws не совершили прорыв.
Уже существуют ai based инструменты для анализа кода: deepcode.ai, codota.com, tabnine.com.
Так же существует много классических статических анализаторов, которые можно встроить в ci.
Во-первых, кажется, что это контр-продуктивный шаг.
Основным преимуществом анализа указывается снижение утилизации CPU. Зачем это нужно компании, которая зарабатывает с продажи процессорного времени?
Мне кажется, таким образом покупается лояльность пользователей, что автоматом увеличивает LTV.
Если вы занимаетесь бизнесом, но еще не читали такие книги как «клиенты на всю жизнь» и «обнимите своих клиентов», вам определенно стоит их прочитать.
Во-вторых, если революцию нельзя предотвратить, нужно ее возглавить.
Лет 10 назад читал интервью создателя «веселой фермы» для vk. Он говорил, что несколько десятков клонов веселой фермы в выдаче vk - его собственные. Зачем тратить усилия на борьбу с конкурентами, если можно их просто размыть.
В-третьих, расширение экосистемы и vendor lock.
Aws сейчас занимает без малого половину рынка, и при этом они не лучшие по цене. Чем больше сервисов клиент сможет получить в режиме «одного окна», тем меньше он будет думать о смене провайдера.
В-четвертых, рост рынка анализа кода.
По неподтвержденным данным сейчас это около $14B и до 2025 вырастит до $26B.
В-пятых, почему не купили существующего игрока этого рынка?
Aws располагает большим арсеналом ML-сервисов и обучить сеть на исходниках наверняка не стоило больших денег. Заметьте, сервис не заявляется как «статический анализатор», разговор идет только про ML.
И последнее. Время уникальных снежинок, рок звезд и 10x инженеров близится к закату. В последнее время открылись врата ада и в айти повалилось огромное количество людей с совершенно разным бэкграундом или совсем без него.
Надо больше кода -> надо больше инженеров -> приходится снижать планку -> кому-то нужно разбирать получившееся добро -> надо больше инженеров.
Для того чтобы компании не завалило под грудами легаси, бизнесу требуются инструменты автоматического контроля продуктов на всех этапах его производства и эксплуатации.
Теперь разработчик ПО не творец. Он просто юнит в большой армии перекладывателей кода из SO и старых проектов в новые проекты. Никакой больше романтики.
Даже верстку уже умеет генерировать AI по ручным скетчам. Не знали? Вот, например: https://blog.floydhub.com/turning-design-mockups-into-code-with-deep-learning/
Так же в тему будет вот такая статья о великой компании Oracle (лицензия БД которой стоит $50k на один процессор): https://habr.com/ru/post/429946/
Если до текущего дня использование анализаторов кода было маркером сознательности компаний, то сейчас мы переходим в новый век. Проверка кода как сервис заставит плакать владельцев галер горькими слезами. Больше не получится с той же легкостью что и раньше перепродавать закончивших курсы «java senior за месяц» втридорога заграничным клиентам. Теперь заказчики будут автоматически получать отчеты о том, что им продают под видом результата работы скиловых разработчиков. Запомните этот твит (с)
Forwarded from Denis Sexy IT 🤖
Я давно слежу за проектами с нейронками которые могут быть полезными разработчикам – и не так давно наткнулся на проект zecoda.com который предлагает за 9$ в месяц превратить один Sketch файл в html страницу (Sketch это такой векторный графический редактор удобный при разработке интерфейсов), так на выходе еще будет поддержка верстки под мобильные устройства (!), хотя в макете ее нет.
Решил попробовать проект – нашел старый макет TJournal версии Основы 1.0, отправил им Sketch файл который специально никак не чистил, ничего не изменял в названии слоев и тп. (Убрал универсальные слои, сделав их обычными).
Вы можете посмотреть файл который я отправил тут.
Спустя 38 часов, я получил результат – вот он.
Я конечно офигел.
Во первых, качество верстки и адаптива действительно хорошее – во вторых, в результатах есть то, чего не было в макетах – например если вы наведете мышку на «Популярное» с десктопа, то у вас появится какое-то меню, очевидно в эти 38 часов входила ручная работа.
Я попросил нашего фронтенд инженера, Мику, проанализировать, что же на выходе на самом деле получилось – и как я и думал, оказалось что тут было довольно много ручной работы: многие классы названы так, как не называются в макете, добавлены решения которые обычно делают люди, то есть наверное какую-то основу на vue.js заложил алгоритм, но дальше это все оформил человек. Подробнее результат анализа можно почитать тут, Мика спасибо 💖
Пока вывод такой: front-end инженеры все еще нужны, а нейронка не может сама верстать.
Посмотрим что будет с проектом Zecoda через год, внес в календарик.
P.S. Справедливости ради – на лендинге проекта сказано, что работу принимают люди, но пока качество автоматизации верстки сложно определить.
Решил попробовать проект – нашел старый макет TJournal версии Основы 1.0, отправил им Sketch файл который специально никак не чистил, ничего не изменял в названии слоев и тп. (Убрал универсальные слои, сделав их обычными).
Вы можете посмотреть файл который я отправил тут.
Спустя 38 часов, я получил результат – вот он.
Я конечно офигел.
Во первых, качество верстки и адаптива действительно хорошее – во вторых, в результатах есть то, чего не было в макетах – например если вы наведете мышку на «Популярное» с десктопа, то у вас появится какое-то меню, очевидно в эти 38 часов входила ручная работа.
Я попросил нашего фронтенд инженера, Мику, проанализировать, что же на выходе на самом деле получилось – и как я и думал, оказалось что тут было довольно много ручной работы: многие классы названы так, как не называются в макете, добавлены решения которые обычно делают люди, то есть наверное какую-то основу на vue.js заложил алгоритм, но дальше это все оформил человек. Подробнее результат анализа можно почитать тут, Мика спасибо 💖
Пока вывод такой: front-end инженеры все еще нужны, а нейронка не может сама верстать.
Посмотрим что будет с проектом Zecoda через год, внес в календарик.
P.S. Справедливости ради – на лендинге проекта сказано, что работу принимают люди, но пока качество автоматизации верстки сложно определить.
... и медитативное шкрябанье лопатой... киберпанк, который мы заслужили
Forwarded from Техно Фил
Media is too big
VIEW IN TELEGRAM
Просто робот-курьер ездит по заснеженному тротуару во дворе московского офиса «Яндекса».
Пятиминутка ностальгии...
...Я как старый игродел на флеше всегда завидовал ребятам, которые имеют ресурсы на создание своих движков.
Я было даже начинал разрабатывать реализацию path finding algorithm, c целью нажиться на продаже библиотеки :)
Вы наверняка знаете игру World of Tanks от компании Wargaming.
Сейчас сложно утверждать что-либо с уверенностью относительно того, кто был первый, но практически одновременно в 2009 году были выпущены 2 игры: World of Tanks и Tanki Online.
Вторая - игра написанная компанией Alternativa Games на собственном 3D движке Alternativa3D для Flash.
Как вы все знаете, Wargaming сейчас международная корпорация, а Alternativa Games в… Ну, короче, в Перми у них офис...
10 лет спустя сложно объяснить чем был этот движок для индустрии. Это были самые крутые обезьяны в джунглях. Он лицензировался за какое-то бешеное по тем временам для инди-разработчика бабло и был мечтой всех игроделов. Мы даже с @pvl_lagutn начинали делать одну игру про крысу на космической станции. По тем временам это был практически triple-A уровень )
На той самой конференции Miro в Перми, я встретил чувака из alternativa games. Прям так лампово :)
Но это еще не все. Наверняка никто из вас ничего не слышал про такую штуку как Live2d.
А это, между прочим, совершенно убойный продукт для псевдо-3D анимации, применяемой, как правило, в этих ваших аниме.
Японская компания пилит его уже 12 лет. Он поставлялся как sdk для directx, flash, unity и js.
Вот вам парочка демок
https://www.youtube.com/watch?v=6zNdFCAQ3x4
https://www.youtube.com/watch?v=8789HEZVQhA
...Я как старый игродел на флеше всегда завидовал ребятам, которые имеют ресурсы на создание своих движков.
Я было даже начинал разрабатывать реализацию path finding algorithm, c целью нажиться на продаже библиотеки :)
Вы наверняка знаете игру World of Tanks от компании Wargaming.
Сейчас сложно утверждать что-либо с уверенностью относительно того, кто был первый, но практически одновременно в 2009 году были выпущены 2 игры: World of Tanks и Tanki Online.
Вторая - игра написанная компанией Alternativa Games на собственном 3D движке Alternativa3D для Flash.
Как вы все знаете, Wargaming сейчас международная корпорация, а Alternativa Games в… Ну, короче, в Перми у них офис...
10 лет спустя сложно объяснить чем был этот движок для индустрии. Это были самые крутые обезьяны в джунглях. Он лицензировался за какое-то бешеное по тем временам для инди-разработчика бабло и был мечтой всех игроделов. Мы даже с @pvl_lagutn начинали делать одну игру про крысу на космической станции. По тем временам это был практически triple-A уровень )
На той самой конференции Miro в Перми, я встретил чувака из alternativa games. Прям так лампово :)
Но это еще не все. Наверняка никто из вас ничего не слышал про такую штуку как Live2d.
А это, между прочим, совершенно убойный продукт для псевдо-3D анимации, применяемой, как правило, в этих ваших аниме.
Японская компания пилит его уже 12 лет. Он поставлялся как sdk для directx, flash, unity и js.
Вот вам парочка демок
https://www.youtube.com/watch?v=6zNdFCAQ3x4
https://www.youtube.com/watch?v=8789HEZVQhA
Сегодня проходит онлайн конференция B2BSense.
С ней все не заладилось с самого начала. Изначально она была запланирована как оффлайн и я собирался туда поехать, но желающих не набралось и конференцию сделали онлайн.
Я посмотрю ее в записи, но сейчас наблюдаю за матами в чате.
Вот казалось бы - уважаемые люди, продакты, вот это вот все. Но трансляция провозится через zoom. Все матерятся, переключатся между потоками неудобно, боль, страдание.
Такая же беда была с онлайн конференцией Miro. Ее я тоже не посмотрел.
Может я недопонимаю, но использовать zoom для конференций это как использовать телегу для командной работы вместо слака.
Или приложения для конференций с расписанием и нетворкингом. Это ведь всегда платный продукт. Почему все они такие плохие...
Случайно наткнулся на одних ребят, которые делают Single Page Application на разные темы и без бэкенда. В качестве бэка используется google sheets.
Там и для конференций приложуха есть.
https://www.glideapps.com/
С ней все не заладилось с самого начала. Изначально она была запланирована как оффлайн и я собирался туда поехать, но желающих не набралось и конференцию сделали онлайн.
Я посмотрю ее в записи, но сейчас наблюдаю за матами в чате.
Вот казалось бы - уважаемые люди, продакты, вот это вот все. Но трансляция провозится через zoom. Все матерятся, переключатся между потоками неудобно, боль, страдание.
Такая же беда была с онлайн конференцией Miro. Ее я тоже не посмотрел.
Может я недопонимаю, но использовать zoom для конференций это как использовать телегу для командной работы вместо слака.
Или приложения для конференций с расписанием и нетворкингом. Это ведь всегда платный продукт. Почему все они такие плохие...
Случайно наткнулся на одних ребят, которые делают Single Page Application на разные темы и без бэкенда. В качестве бэка используется google sheets.
Там и для конференций приложуха есть.
https://www.glideapps.com/
Обратил внимание на то, что в последнее время я перестал иметь мнение по различным, как кажется важным и обсуждаемым вопросам. Вижу какую-то движуху в интернетах и понимаю, что мне все равно.
Первое, что я подумал, когда обратил на это внимание было «это цинизм и малодушие».
Но позже пришла настоящая причина. Что бы иметь мнение, нужно хотя бы попробовать начать разобраться в вопросе. А на это нужно время. И может случиться так, что пока ты разбираешься, вопрос перестанет быть актуальным. Или все завалит постправдой так, что уже будет не важно в чем ты там разбирался.
У отсутствия мнения по всем вопросам есть один важный плюс. Тебя невозможно втянуть в разборки. Тебе нет до разборок никакого дела. У тебя не сбивается фокус, ты занят своими делами.
Хороший способ не отвлекаться на это совсем - не потреблять новостной ситуативный контент. Но это, честно говоря, плохо получается, потому как контент находит тебя сам и принуждает тебя к потреблению :)
Справедливости ради стоит отметить, что есть темы, которые невозможно игнорировать и приходится иметь на этот счет какую-то точку зрения, хотя не сказать чтобы хотелось (диверсити в it, пхп, галерное программирование, выгорание, и тд).
По каждой теме можно написать по паре лонгридов, но я, конечно же, этого делать не буду :)
Первое, что я подумал, когда обратил на это внимание было «это цинизм и малодушие».
Но позже пришла настоящая причина. Что бы иметь мнение, нужно хотя бы попробовать начать разобраться в вопросе. А на это нужно время. И может случиться так, что пока ты разбираешься, вопрос перестанет быть актуальным. Или все завалит постправдой так, что уже будет не важно в чем ты там разбирался.
У отсутствия мнения по всем вопросам есть один важный плюс. Тебя невозможно втянуть в разборки. Тебе нет до разборок никакого дела. У тебя не сбивается фокус, ты занят своими делами.
Хороший способ не отвлекаться на это совсем - не потреблять новостной ситуативный контент. Но это, честно говоря, плохо получается, потому как контент находит тебя сам и принуждает тебя к потреблению :)
Справедливости ради стоит отметить, что есть темы, которые невозможно игнорировать и приходится иметь на этот счет какую-то точку зрения, хотя не сказать чтобы хотелось (диверсити в it, пхп, галерное программирование, выгорание, и тд).
По каждой теме можно написать по паре лонгридов, но я, конечно же, этого делать не буду :)