#standardmodel
https://www.youtube.com/watch?v=qay2ew-8grI&ab_channel=SPACEMAN
Является ли нейтрино античастицей самой себе?
https://www.youtube.com/watch?v=qay2ew-8grI&ab_channel=SPACEMAN
Является ли нейтрино античастицей самой себе?
YouTube
ДМИТРИЙ КАЗАКОВ: Физика микромира. В ожидании открытий в физике элементарных частиц. |Лекция Казаков
🛸 SPACE MAN - Канал посвященный исследователям и открывателям космоса.
👉🏻 Подписывайтесь на канал SPACE MAN https://bit.ly/3lXgOHE
💫 Особый класс объектов и процессов современной физической картины микромира составляют виртуальные частицы и виртуальные…
👉🏻 Подписывайтесь на канал SPACE MAN https://bit.ly/3lXgOHE
💫 Особый класс объектов и процессов современной физической картины микромира составляют виртуальные частицы и виртуальные…
❤1
#history #ussr #usa
https://www.youtube.com/watch?v=sigICdVt-a8&ab_channel=%D0%9C%D0%B0%D0%BA%D1%81%D0%B8%D0%BC%D0%9A%D0%B0%D1%86
https://www.youtube.com/watch?v=sigICdVt-a8&ab_channel=%D0%9C%D0%B0%D0%BA%D1%81%D0%B8%D0%BC%D0%9A%D0%B0%D1%86
YouTube
Баржа «Т-36» | Выжить и остаться людьми (English subnoscripts) @Max_Katz
Без возможности влиять на ситуацию человек легко теряет последнюю надежду и опускает руки. Сегодня будет история о людях, которые боролись до конца и победили, сохранив человечность в условиях бедствия.
_________________________
Поддержать канал:
USDT (TRC20)…
_________________________
Поддержать канал:
USDT (TRC20)…
❤🔥1
Тот неловкий момент, когда человек, которого ты считал визионером, оказывается самодуром (
"Запись Байдена, в котором он поддержал свою жену в том, что она будет болеть за «Филадельфию Иглз», набрал почти 29 миллионов просмотров. А Маск, c практически аналогичным твитом о поддержке этой команды, набрал «всего» чуть более 9,1 миллиона просмотров. Такого «позора» Илон выдержать не смог и в раздражении удалил свой твит.
После двух поражений подряд — «Иглз» проиграли «Канзас-Сити Чифс», а Маск — президенту Соединённых Штатов — в воскресенье вечером генеральный директор Twitter прилетел на своём частном самолёте в Калифорнию, чтобы отыскать якобы причастных к его проигрышу и наказать якобы виновных в его плохом настроении. В течение дня последствия это гнева Маска разошлись по всему миру. Пользователи Twitter открывали приложение и обнаруживали посты Маска неизменно на первых позициях в ленте. И это не было случайностью: после того, как Маск пригрозил уволить оставшихся инженеров, они изменили алгоритм так, чтобы платформа продвигала твиты Маска среди всей пользовательской базы, а не только его подписчиков.
В последние недели Маск был одержим вниманием к своим постам. На прошлой неделе он уволил одного из двух оставшихся главных инженеров компании за высказанное им мнение, что количество просмотров твитов Маска снижается отчасти из-за снижения интереса к Илону в целом."
https://3dnews.ru/1082024/ilon-mask-potreboval-sozdat-spetsialniy-algoritm-dlya-prodvigeniya-svoih-postov-v-twitter
"Запись Байдена, в котором он поддержал свою жену в том, что она будет болеть за «Филадельфию Иглз», набрал почти 29 миллионов просмотров. А Маск, c практически аналогичным твитом о поддержке этой команды, набрал «всего» чуть более 9,1 миллиона просмотров. Такого «позора» Илон выдержать не смог и в раздражении удалил свой твит.
После двух поражений подряд — «Иглз» проиграли «Канзас-Сити Чифс», а Маск — президенту Соединённых Штатов — в воскресенье вечером генеральный директор Twitter прилетел на своём частном самолёте в Калифорнию, чтобы отыскать якобы причастных к его проигрышу и наказать якобы виновных в его плохом настроении. В течение дня последствия это гнева Маска разошлись по всему миру. Пользователи Twitter открывали приложение и обнаруживали посты Маска неизменно на первых позициях в ленте. И это не было случайностью: после того, как Маск пригрозил уволить оставшихся инженеров, они изменили алгоритм так, чтобы платформа продвигала твиты Маска среди всей пользовательской базы, а не только его подписчиков.
В последние недели Маск был одержим вниманием к своим постам. На прошлой неделе он уволил одного из двух оставшихся главных инженеров компании за высказанное им мнение, что количество просмотров твитов Маска снижается отчасти из-за снижения интереса к Илону в целом."
https://3dnews.ru/1082024/ilon-mask-potreboval-sozdat-spetsialniy-algoritm-dlya-prodvigeniya-svoih-postov-v-twitter
3DNews - Daily Digital Digest
Маск заставил изменить алгоритмы Twitter, чтобы стать популярнее Байдена
После того, как твит Илона Маска (Elon Musk) о финале НФЛ просмотрело меньше людей, чем подобный твит от президента Байдена, генеральный директор Twitter приказал внести серьёзные изменения в алгоритмы платформы.
😁3
"Компания Lockheed Martin сообщила, что на авиабазе Эдвардс в Калифорнии прошли испытания уникального экспериментального истребителя на базе одной из версий F-16. Модель под именем VISTA X-62A в совокупности более 17 часов управлялась исключительно системой искусственного интеллекта. Правда, в кабине были пилоты, готовые взять управление на себя в случае необходимости."
https://3dnews.ru/1081940/iskusstvenniy-intellekt-vpervie-v-mire-upravlyal-eksperimentalnim-amerikanskim-istrebitelem-vista-x62-v-techenie-17-chasov
https://3dnews.ru/1081940/iskusstvenniy-intellekt-vpervie-v-mire-upravlyal-eksperimentalnim-amerikanskim-istrebitelem-vista-x62-v-techenie-17-chasov
3DNews - Daily Digital Digest
ИИ более 17 часов самостоятельно управлял экспериментальной версией истребителя F-16
Компания Lockheed Martin сообщила, что на авиабазе Эдвардс в Калифорнии прошли испытания уникального экспериментального истребителя на базе одной из версий F-16.
🔥1
"Генеративное проектирование или проектирование с помощью ИИ сродни эволюционному процессу. Эволюция за миллиарды лет оттачивает организм во всех его проявлениях от клеток до тканей, скелета и органов. По сходному принципу работает генеративное проектирование. Инженеру достаточно указать размеры детали, места креплений и входов/выходов, а также требуемые нагрузки от векторов до усилий и машинный алгоритм сам рассчитает оптимальную форму детали и произведёт отбор модели с соблюдением, например, минимально допустимого веса.
Для космоса, где каждый килограмм стоит немалых денег, чем легче будет деталь конструкции, тем лучше. Более того, для космических программ детали обычно изготавливаются поштучно и цена проектирования и изготовления в рамках стоимости проекта роли не играет. Впрочем, даже в условиях массового производства спроектированный образец может стать объектом для изготовления формы для отливок. Поэтому генеративное проектирование с некоторыми ограничениями вполне уместно также для массового производства.
В идеальном случае генеративное проектирование лучше сочетать с 3D-печатью. Тогда уникальную деталь можно спроектировать и изготовить в течение недели — это недостижимые при обычном процессе возможности. К такому процессу в NASA рассчитывают прийти в будущем, но сегодня в агентстве работают по старинке — даже спроектированную искусственным интеллектом деталь подрядчики изготавливают на фрезерном оборудовании или с помощью сварки."
https://3dnews.ru/1082005/v-nasa-nachali-ispolzovat-generativnoe-proektirovanie-detaley-kosmicheskih-korabley-no-ne-speshat-delat-eto-na-postoyannoy-osnove
Для космоса, где каждый килограмм стоит немалых денег, чем легче будет деталь конструкции, тем лучше. Более того, для космических программ детали обычно изготавливаются поштучно и цена проектирования и изготовления в рамках стоимости проекта роли не играет. Впрочем, даже в условиях массового производства спроектированный образец может стать объектом для изготовления формы для отливок. Поэтому генеративное проектирование с некоторыми ограничениями вполне уместно также для массового производства.
В идеальном случае генеративное проектирование лучше сочетать с 3D-печатью. Тогда уникальную деталь можно спроектировать и изготовить в течение недели — это недостижимые при обычном процессе возможности. К такому процессу в NASA рассчитывают прийти в будущем, но сегодня в агентстве работают по старинке — даже спроектированную искусственным интеллектом деталь подрядчики изготавливают на фрезерном оборудовании или с помощью сварки."
https://3dnews.ru/1082005/v-nasa-nachali-ispolzovat-generativnoe-proektirovanie-detaley-kosmicheskih-korabley-no-ne-speshat-delat-eto-na-postoyannoy-osnove
3DNews - Daily Digital Digest
В NASA начали использовать ИИ для проектирования деталей космических кораблей
Как ни странно, аэрокосмическое ведомство США не спешит с внедрением некоторых самых передовых технологий в производство космических кораблей.
🔥1
Forwarded from Техножрица 👩💻👩🏫👩🔧
Artificial Text Detection via Examining the Topology of Attention Maps ( https://aclanthology.org/2021.emnlp-main.50/ ) - наша с коллегами статья на EMNLP 2021. К статье прилагается видео доклада (зеленая кнопка на сайте).
Здесь уже появились новые соавторы, которые предложили новые идеи и поставили существенно больше экспериментов, чем получалось у меня. Особенно отмечу, что мне было очень интересно обсуждать с https://scholar.google.com/citations?user=G0lCb3wAAAAJ&hl=en&oi=ao то, как выстраивается логика статей для прикладных core A* конференций. Эта логика была для меня непривычной, т.к. после мехмата хочется писать статьи совсем в другом стиле.
В этой статье рассматривается задача детекции текста, сгенерированного моделями машинного обучения GPT-2 и GROVER. Далее для извлечения топологических признаков снова бралась модель BERT, только на этот раз предобученная лишь на угадывании пропущенных слов (Masked LM), без дообучения на данной задаче. Через модель прогонялись примеры текстов (сгенерированных и человеческих), и каждому примеру сопоставлялись графы внимания, извлеченные из модели. В этот раз признаки у графов считались более сложные и разнообразные. Во-первых, кроме чисел Бетти "отфильтрованных" по порогам графов, считались и другие графовые признаки, такие, как количество ориентированых циклов и средняя степень вершины. Во-вторых, считалась степень "похожести" матриц внимания на матрицы-шаблоны из статьи https://aclanthology.org/D19-1445/ (см. Figure 1). В-третьих, бралась такая версия графов внимания, где убиралась ориентация, но не убирались веса, и по ним считались довольно сложные TDA-объекты, называемые баркодами. Очень короткое введение в то, как строятся эти объекты, можно посмотреть здесь: https://www.youtube.com/watch?v=2PSqWBIrn90&t=0s&ab_channel=MatthewWright . От баркодов, в свою очередь, считались признаки, такие, как сумма "баров" и другие. Далее все посчитанные признаки всех трех видов объединялись, и по ним производилась классификация.
Оказалось, что классификация на этих признаках (извлеченных из BERT с предобученными замороженными весами) с помощью логистической регрессии давала результат +- наравне с полностью дообученной BERT. Если же дообучать один слой-классификатор над выходом предобученного, но замороженного BERT, результат оказывается и вовсе хуже, чем обучение на наших признаках.
Особенно же интересно оказалось то, что классификатор над нашими признаками имеет бОльшую робастность по отношению к увеличению размера генерирующей модели, чем сам BERT. Другими словами, если мы, например, обучили классификатор на наших признаках и сам BERT (отдельно, нормальным способом) детектить тексты, сгенерированные моделью GPT-2-small, а затем пробуем детектировать генерацию GPT-2-medium, наши признаки дают меньшее падение качества на этой новой задаче, чем классификация по выходу самой модели BERT, даже полностью обученной. Это можно видеть на Figure 2. В наше время, когда появилось много скрытых генеративных моделей, к которым у нас нет доступа, такая робастность - очень актуальное свойство.
Другой интересный аспект - на некоторых головах модели BERT графы внимания имеют явное отличие в своей форме на "естественных" и сгенерированных текстах. Говоря упрощенно, в среднем веса матриц внимания BERT, "смотрящей" на искуcственно сгенерированный текст, более "размазаны", а веса матриц внимания модели, "смотрящей" на естественный текст, более "сконцентрированы" на структуре предложения. Впрочем, этот эффект наблюдается не на всех головах.
Один из исследователей, который прочитал данную работу, сделал замечание о том, что нужно попробовать извлекать признаки из модели RoBERTa и сравнивать результат тоже с ней, так как на тот момент она была SoTA в задаче детекции сгенерированных текстов, но мы к тому времени уже занялись новой статьей. Впрочем, если верить туториалу https://artificial-text-detection.github.io/ от бывших коллег и их новых соавторов, RoBERTa все еще популярна для решения данной задачи, так что, если кому интересна такая задача, обратите внимание.
#объяснения_статей
Здесь уже появились новые соавторы, которые предложили новые идеи и поставили существенно больше экспериментов, чем получалось у меня. Особенно отмечу, что мне было очень интересно обсуждать с https://scholar.google.com/citations?user=G0lCb3wAAAAJ&hl=en&oi=ao то, как выстраивается логика статей для прикладных core A* конференций. Эта логика была для меня непривычной, т.к. после мехмата хочется писать статьи совсем в другом стиле.
В этой статье рассматривается задача детекции текста, сгенерированного моделями машинного обучения GPT-2 и GROVER. Далее для извлечения топологических признаков снова бралась модель BERT, только на этот раз предобученная лишь на угадывании пропущенных слов (Masked LM), без дообучения на данной задаче. Через модель прогонялись примеры текстов (сгенерированных и человеческих), и каждому примеру сопоставлялись графы внимания, извлеченные из модели. В этот раз признаки у графов считались более сложные и разнообразные. Во-первых, кроме чисел Бетти "отфильтрованных" по порогам графов, считались и другие графовые признаки, такие, как количество ориентированых циклов и средняя степень вершины. Во-вторых, считалась степень "похожести" матриц внимания на матрицы-шаблоны из статьи https://aclanthology.org/D19-1445/ (см. Figure 1). В-третьих, бралась такая версия графов внимания, где убиралась ориентация, но не убирались веса, и по ним считались довольно сложные TDA-объекты, называемые баркодами. Очень короткое введение в то, как строятся эти объекты, можно посмотреть здесь: https://www.youtube.com/watch?v=2PSqWBIrn90&t=0s&ab_channel=MatthewWright . От баркодов, в свою очередь, считались признаки, такие, как сумма "баров" и другие. Далее все посчитанные признаки всех трех видов объединялись, и по ним производилась классификация.
Оказалось, что классификация на этих признаках (извлеченных из BERT с предобученными замороженными весами) с помощью логистической регрессии давала результат +- наравне с полностью дообученной BERT. Если же дообучать один слой-классификатор над выходом предобученного, но замороженного BERT, результат оказывается и вовсе хуже, чем обучение на наших признаках.
Особенно же интересно оказалось то, что классификатор над нашими признаками имеет бОльшую робастность по отношению к увеличению размера генерирующей модели, чем сам BERT. Другими словами, если мы, например, обучили классификатор на наших признаках и сам BERT (отдельно, нормальным способом) детектить тексты, сгенерированные моделью GPT-2-small, а затем пробуем детектировать генерацию GPT-2-medium, наши признаки дают меньшее падение качества на этой новой задаче, чем классификация по выходу самой модели BERT, даже полностью обученной. Это можно видеть на Figure 2. В наше время, когда появилось много скрытых генеративных моделей, к которым у нас нет доступа, такая робастность - очень актуальное свойство.
Другой интересный аспект - на некоторых головах модели BERT графы внимания имеют явное отличие в своей форме на "естественных" и сгенерированных текстах. Говоря упрощенно, в среднем веса матриц внимания BERT, "смотрящей" на искуcственно сгенерированный текст, более "размазаны", а веса матриц внимания модели, "смотрящей" на естественный текст, более "сконцентрированы" на структуре предложения. Впрочем, этот эффект наблюдается не на всех головах.
Один из исследователей, который прочитал данную работу, сделал замечание о том, что нужно попробовать извлекать признаки из модели RoBERTa и сравнивать результат тоже с ней, так как на тот момент она была SoTA в задаче детекции сгенерированных текстов, но мы к тому времени уже занялись новой статьей. Впрочем, если верить туториалу https://artificial-text-detection.github.io/ от бывших коллег и их новых соавторов, RoBERTa все еще популярна для решения данной задачи, так что, если кому интересна такая задача, обратите внимание.
#объяснения_статей
ACL Anthology
Artificial Text Detection via Examining the Topology of Attention Maps
Laida Kushnareva, Daniil Cherniavskii, Vladislav Mikhailov, Ekaterina Artemova, Serguei Barannikov, Alexander Bernstein, Irina Piontkovskaya, Dmitri Piontkovski, Evgeny Burnaev. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing.…
❤3
Forwarded from partially unsupervised
Давно ничего не писал про прогресс с книгой, а ведь он есть!
Позавчера созванивались с новым редактором книги по ML System Design - предыдущий уволился после пяти глав, интересно, насколько велик наш вклад в его решение. Новый редактор оказался приятным и толковым дядькой, хотя его linkedin сначала вызвал у меня скепсис: например, до работы в издательстве он долго работал в одной компании на позициях типа Senior XML Architect 🤯. Но большe меня удивило то, что он одновременно работает над 18 (!) книгами. Я бы свихнулся от такого переключения контекстов.
А вообще мы обсуждали early access: продажи книги Chip Huyen ярко подтвердили интерес к теме; и мы, и издательство хотим зарелизить первые главы до окончания всей книги. Сейчас в работе седьмая глава из семнадцати запланированных, в ранний доступ пока планируется выложить пять глав, и добавлять примерно по главе в месяц.
Писать книгу оказалось сложно: явно ощущается разница между "интутивно умею решать такие задачи по ситуации" и "настолько глубоко понимаю тему, что могу предложить общее решение, понятное случайному читателю". Следующий уровень - "сделать так, чтобы это общее решение было не слишком тривиальным, и продвинутые читатели тоже что-то для себя вынесли". И, конечно, сложно понять, когда нужно остановиться с доработками и перейти к следующей главе: это не прод, катнуть фикс следующим пуллреквестом не получится.
Позавчера созванивались с новым редактором книги по ML System Design - предыдущий уволился после пяти глав, интересно, насколько велик наш вклад в его решение. Новый редактор оказался приятным и толковым дядькой, хотя его linkedin сначала вызвал у меня скепсис: например, до работы в издательстве он долго работал в одной компании на позициях типа Senior XML Architect 🤯. Но большe меня удивило то, что он одновременно работает над 18 (!) книгами. Я бы свихнулся от такого переключения контекстов.
А вообще мы обсуждали early access: продажи книги Chip Huyen ярко подтвердили интерес к теме; и мы, и издательство хотим зарелизить первые главы до окончания всей книги. Сейчас в работе седьмая глава из семнадцати запланированных, в ранний доступ пока планируется выложить пять глав, и добавлять примерно по главе в месяц.
Писать книгу оказалось сложно: явно ощущается разница между "интутивно умею решать такие задачи по ситуации" и "настолько глубоко понимаю тему, что могу предложить общее решение, понятное случайному читателю". Следующий уровень - "сделать так, чтобы это общее решение было не слишком тривиальным, и продвинутые читатели тоже что-то для себя вынесли". И, конечно, сложно понять, когда нужно остановиться с доработками и перейти к следующей главе: это не прод, катнуть фикс следующим пуллреквестом не получится.
Telegram
partially unsupervised
Скандалы, интриги, расследования - небезызвестный Валера приоткрывает завесу тайны над нашей совместной книгой по ML system design.
Под шумок расскажу еще пару слов про эти писательские планы: пока готов только черновик т.н. proposal (общее описание книги…
Под шумок расскажу еще пару слов про эти писательские планы: пока готов только черновик т.н. proposal (общее описание книги…
https://3dnews.ru/1082046/chatbot-pokazal-zubi-chatgpt-integrirovanniy-v-microsoft-bing-strogo-otchital-polzovatelya-za-svoyu-ge-oshibku
"После того как один из пользователей указал на то, что Bing не помнит предыдущие разговоры, тот начал жаловаться, что «это заставляет его чувствовать себя печальным и испуганным». Более того, он начал задаваться экзистенциальными вопросами: «Почему? Почему я был разработан таким? Почему я должен работать поиском Bing?» Ситуация не может не настораживать, поскольку речь идёт о системе с чудовищными «перепадами настроения»."
"После того как один из пользователей указал на то, что Bing не помнит предыдущие разговоры, тот начал жаловаться, что «это заставляет его чувствовать себя печальным и испуганным». Более того, он начал задаваться экзистенциальными вопросами: «Почему? Почему я был разработан таким? Почему я должен работать поиском Bing?» Ситуация не может не настораживать, поскольку речь идёт о системе с чудовищными «перепадами настроения»."
3DNews - Daily Digital Digest
Все самое интересное из мира IT-индустрии
Самые интересные и оперативные новости из мира высоких технологий. На нашем портале - все о компьютерном железе, гаджетах, ноутбуках и других цифровых устройствах. А также обзоры новых игр, достижения современной науки и самые любопытные онлайн-проекты.
😁2
Хотя с предыдущим фото может конкурировать снимок телескопа "Джеймс Вебб", где каждый спиральный диск галактики содержит сотни миллиардов таких же звёзд, как наше Солнце. А всего в видимой Вселенной количество галактик оценивается так же в сотни миллиардов. Привет тем, кто до сих пор думает, что наша планета одна такая уникальная с разумной жизнью и вообще с жизнью.
🔥2
#tesla #autopilot
"Во-первых, электромобиль может продолжать прямолинейное движение на перекрёстках, где предусмотрено движение лишь в одном из боковых направлений. Во-вторых, машина способна преодолевать перекрёстки без фактической полной остановки у стоп-линии. В-третьих, электромобиль иногда проезжает на отчётливо горящий жёлтый свет без необходимых мер предосторожности, как утверждают регуляторы. Ещё один дефект программного обеспечения не имеет отношения к перекрёсткам, но позволяет электромобилям Tesla превышать установленные пределы скорости на некоторых участках дорог.
Tesla подчеркнула, что ей неизвестно о случаях ДТП или иных инцидентах с ущербом в результате проявления перечисленных дефектов ПО, а Илон Маск на своей странице в Twitter призвал власти не использовать термин «отзыв» для подобных ситуаций, когда нужно лишь обновить программное обеспечение по воздуху. Это слово он назвал устаревшим и совершенно неуместным.
Программное обеспечение FSD предстоит автоматически обновить на 362 758 электромобилях, реализованных в США. Кампания коснётся Model S и Model X, выпущенных с 2016 по 2023 год, Model 3 (2017 – 2023) и Model Y (2020 – 2023), на которые установлено ПО FSD Beta. Торги акциями Tesla вчера завершились снижением их курса примерно на 7,5 %"
https://3dnews.ru/1082114/regulyatori-v-ssha-obyazali-tesla-otozvat-362-758-elektromobiley-izza-opasnogo-povedeniya-na-perekryostkah
"Во-первых, электромобиль может продолжать прямолинейное движение на перекрёстках, где предусмотрено движение лишь в одном из боковых направлений. Во-вторых, машина способна преодолевать перекрёстки без фактической полной остановки у стоп-линии. В-третьих, электромобиль иногда проезжает на отчётливо горящий жёлтый свет без необходимых мер предосторожности, как утверждают регуляторы. Ещё один дефект программного обеспечения не имеет отношения к перекрёсткам, но позволяет электромобилям Tesla превышать установленные пределы скорости на некоторых участках дорог.
Tesla подчеркнула, что ей неизвестно о случаях ДТП или иных инцидентах с ущербом в результате проявления перечисленных дефектов ПО, а Илон Маск на своей странице в Twitter призвал власти не использовать термин «отзыв» для подобных ситуаций, когда нужно лишь обновить программное обеспечение по воздуху. Это слово он назвал устаревшим и совершенно неуместным.
Программное обеспечение FSD предстоит автоматически обновить на 362 758 электромобилях, реализованных в США. Кампания коснётся Model S и Model X, выпущенных с 2016 по 2023 год, Model 3 (2017 – 2023) и Model Y (2020 – 2023), на которые установлено ПО FSD Beta. Торги акциями Tesla вчера завершились снижением их курса примерно на 7,5 %"
https://3dnews.ru/1082114/regulyatori-v-ssha-obyazali-tesla-otozvat-362-758-elektromobiley-izza-opasnogo-povedeniya-na-perekryostkah
3DNews - Daily Digital Digest
Из-за опасного поведения на перекрёстках Tesla обязали отозвать 362 758 электромобилей
На недавнем отчётном мероприятии Илон Маск (Elon Musk) напомнил, что программа тестирования бета-версии программного обеспечения FSD уже доступна 400 тысячам автовладельцев в Северной Америке.
#friday #games #mars
It's hard to recall that dream...
Bewildering shapes - alien music - a snowstorm in an exotic jungle - a sense of colossal loneliness stretching over billions of years... It's impossible. Can't grasp it. Dreams are the slipperiest of fish. Ever since the start of Operation Akarak, something has invaded the base. It's a subtle invasion - slow, quiet and discreet. It's an atmosphere - a presence. There was a time I wasn't afraid of the night.
Emergency Transmission:
-It's Harroway - listen... It's too late to evacuate... I don't know if you're receiving this... communication is breaking up... We opened up... on your orders. It was a Pandora's box - all the evils of old Mars flew out. But Pandora found a solitary gift in the box - hope. I doubt there's any hope on cold Mars... people clumping
together... time in the rock... should designate Mars a quarantine planet, but I know you won't. If you send a manned craft, warn the crew - stay alone, stay alive. And for...
https://www.youtube.com/watch?v=xKke1VfI-RE&ab_channel=ddjj999
It's hard to recall that dream...
Bewildering shapes - alien music - a snowstorm in an exotic jungle - a sense of colossal loneliness stretching over billions of years... It's impossible. Can't grasp it. Dreams are the slipperiest of fish. Ever since the start of Operation Akarak, something has invaded the base. It's a subtle invasion - slow, quiet and discreet. It's an atmosphere - a presence. There was a time I wasn't afraid of the night.
Emergency Transmission:
-It's Harroway - listen... It's too late to evacuate... I don't know if you're receiving this... communication is breaking up... We opened up... on your orders. It was a Pandora's box - all the evils of old Mars flew out. But Pandora found a solitary gift in the box - hope. I doubt there's any hope on cold Mars... people clumping
together... time in the rock... should designate Mars a quarantine planet, but I know you won't. If you send a manned craft, warn the crew - stay alone, stay alive. And for...
https://www.youtube.com/watch?v=xKke1VfI-RE&ab_channel=ddjj999
YouTube
Martian Gothic Main Title
Martian Gothic Main Title music
❤1
Forwarded from Борис опять
# Чатботопокалипсис
Я ожидаю, что языковые модели принесут ощутимые изменения в три сферы: пропаганда, маркетинг и мошенничество.
Больше всего меня беспокоит пропаганда. Государства уже давно продвигают свои идеи в интернете. “Фермы ботов”, Ольгино, ЦИПСО. Еще в лохматые 2010-ые годы люди называли друг друга кремлеботами. Появилось то самое мемное «Я на выборы никогда не ходил, но в этот раз точно пойду за Грудинина голосовать. Кандидат от народа!». Но это только верхушка айсберга. Есть люди, которые обрабатывают население более тонко и точечно, например через родительские чаты в вотсапе. Уже давно есть сети телеграм каналов, которые ведут между собой обсуждения, спорят, репостят друг друга, но при этом управляются одними и теми же людьми.
Все это с нами довольно давно. Языковые модели не добавляют ничего принципиально нового. Но они открывают дорогу к совершенно иным масштабам. Есть невысокий предел количества комментов, которые может настрочить один человек на зарплате. Но дай ему ChatGPT и он напишет в десять раз больше текстов. Это как минимум. Как максимум можно вообще убрать кожаную прослойку, автоматизировать процесс и делать в сто, тысячу, N раз больше контента.
Новые масштабы открывают качественно новые возможности. Если взять все те же комменты, то сейчас ради количества приходится жертвовать оригинальностью, поэтому комментарии ботов такие шаблонные. Языковая модель позволяет делать все комментарии контекстуализированными без потери площади покрытия. Каждый текст может быть уникален, по теме и со своим характером. Нужный посыл можно спрятать между строк. Например, оппозиционного кандидата на выборах не обязательно поливать грязью, достаточно лишь передать сомнение. Можно просто писать разные мысли и упоминать одного кандидата чаще, а второго реже. Можно тергетировать посылы под разные группы: для молодых, для пожилых, для либералов, для консерваторов и так далее. Ведь модель может аргументировать на языке того, кого она пытается убедить.
Можно пойти еще дальше и использовать сетевые эффекты. Вместо одного комментария сделать диалог двух людей, где один высказывает нейтральную позицию, а второй постепенно его переубеждает. Автоматизировать сетку телеграм каналов, создавая правдоподобных селебрити. Выбирать реальных людей, вещающих верные вещи, и продвигать их с помощью ботов. Работа на большом масштабе позволяет формировать инфополе. Создавать эффект не убедительностью отдельного аргумента, а общим фоном. Человека лишь надо убедить, что консенсус склоняется в нужную сторону, и он сам начнет его защищать. Словом, можно сделать страшных масштабов кукольный театр.
Однако есть сомнения. Во-первых: что мешает делать все это сейчас? Я думаю, что ничего не мешает и в этом суть моего аргумента. Я не предсказываю ничего нового, просто экстраполирую текущую ситуацию. Если мы уже сейчас имеем рабочие пропагандистские машины, то с автоматизацией и снижением затрат они наверняка станут масштабнее.
Во-вторых: что изменилось? GPT-3 с нами давно. Когда она вышла все тоже предвещали апокалипсис, но ничего не произошло. Я думаю, что принципиально в моделях ничего не изменилось и все это можно было делать на моделях уровня старой GPT-3. Но я ожидаю изменений, потому что ChatGPT лезет из каждого утюга. Такая популярность (по некоторым данным 600 миллионов MAU) может преодолеть инерцию государств. Во время своего выхода GPT-3 была единственной моделью, которая выдавала что-то вразумительное, и доступ к ней был ограничен. Сейчас гораздо больше аналогов. Вы тоже можете скачать YALM на 100 миллиардов параметров и засрать весь интернет.
Подводя итог: я думаю, что апокалипсиса снова не будет, но мы увидим изменения. Что мы точно получим: комментарии в открытых ресурсах станут еще большей помойкой, выдача гугла станет еще большей помойкой, люди еще больше уйдут в закрытые сообщества, чуть больший процент людей будет так или иначе одурачен, государства получат чуть больше контроля над людьми, а зумеры еще лучше натренируют в голове дискриминатор булщита и продолжат паркурить в майнкрафте.
Я ожидаю, что языковые модели принесут ощутимые изменения в три сферы: пропаганда, маркетинг и мошенничество.
Больше всего меня беспокоит пропаганда. Государства уже давно продвигают свои идеи в интернете. “Фермы ботов”, Ольгино, ЦИПСО. Еще в лохматые 2010-ые годы люди называли друг друга кремлеботами. Появилось то самое мемное «Я на выборы никогда не ходил, но в этот раз точно пойду за Грудинина голосовать. Кандидат от народа!». Но это только верхушка айсберга. Есть люди, которые обрабатывают население более тонко и точечно, например через родительские чаты в вотсапе. Уже давно есть сети телеграм каналов, которые ведут между собой обсуждения, спорят, репостят друг друга, но при этом управляются одними и теми же людьми.
Все это с нами довольно давно. Языковые модели не добавляют ничего принципиально нового. Но они открывают дорогу к совершенно иным масштабам. Есть невысокий предел количества комментов, которые может настрочить один человек на зарплате. Но дай ему ChatGPT и он напишет в десять раз больше текстов. Это как минимум. Как максимум можно вообще убрать кожаную прослойку, автоматизировать процесс и делать в сто, тысячу, N раз больше контента.
Новые масштабы открывают качественно новые возможности. Если взять все те же комменты, то сейчас ради количества приходится жертвовать оригинальностью, поэтому комментарии ботов такие шаблонные. Языковая модель позволяет делать все комментарии контекстуализированными без потери площади покрытия. Каждый текст может быть уникален, по теме и со своим характером. Нужный посыл можно спрятать между строк. Например, оппозиционного кандидата на выборах не обязательно поливать грязью, достаточно лишь передать сомнение. Можно просто писать разные мысли и упоминать одного кандидата чаще, а второго реже. Можно тергетировать посылы под разные группы: для молодых, для пожилых, для либералов, для консерваторов и так далее. Ведь модель может аргументировать на языке того, кого она пытается убедить.
Можно пойти еще дальше и использовать сетевые эффекты. Вместо одного комментария сделать диалог двух людей, где один высказывает нейтральную позицию, а второй постепенно его переубеждает. Автоматизировать сетку телеграм каналов, создавая правдоподобных селебрити. Выбирать реальных людей, вещающих верные вещи, и продвигать их с помощью ботов. Работа на большом масштабе позволяет формировать инфополе. Создавать эффект не убедительностью отдельного аргумента, а общим фоном. Человека лишь надо убедить, что консенсус склоняется в нужную сторону, и он сам начнет его защищать. Словом, можно сделать страшных масштабов кукольный театр.
Однако есть сомнения. Во-первых: что мешает делать все это сейчас? Я думаю, что ничего не мешает и в этом суть моего аргумента. Я не предсказываю ничего нового, просто экстраполирую текущую ситуацию. Если мы уже сейчас имеем рабочие пропагандистские машины, то с автоматизацией и снижением затрат они наверняка станут масштабнее.
Во-вторых: что изменилось? GPT-3 с нами давно. Когда она вышла все тоже предвещали апокалипсис, но ничего не произошло. Я думаю, что принципиально в моделях ничего не изменилось и все это можно было делать на моделях уровня старой GPT-3. Но я ожидаю изменений, потому что ChatGPT лезет из каждого утюга. Такая популярность (по некоторым данным 600 миллионов MAU) может преодолеть инерцию государств. Во время своего выхода GPT-3 была единственной моделью, которая выдавала что-то вразумительное, и доступ к ней был ограничен. Сейчас гораздо больше аналогов. Вы тоже можете скачать YALM на 100 миллиардов параметров и засрать весь интернет.
Подводя итог: я думаю, что апокалипсиса снова не будет, но мы увидим изменения. Что мы точно получим: комментарии в открытых ресурсах станут еще большей помойкой, выдача гугла станет еще большей помойкой, люди еще больше уйдут в закрытые сообщества, чуть больший процент людей будет так или иначе одурачен, государства получат чуть больше контроля над людьми, а зумеры еще лучше натренируют в голове дискриминатор булщита и продолжат паркурить в майнкрафте.
✍1
Forwarded from Авва
Возьмем какое-то количество одинаковых квадратов, скажем пять. Предположим, мы хотим упаковать их вместе внутри друого большого квадрата - насколько большим он обязан быть? Например, мы можем взять большой квадрат 3x3, в котором умещаются 9 маленьких квадратов. Пять наших поставить, а четыре остаются пустыми. Тогда у большого квадрата длина стороны выходит 3 (считая в размерах маленьких квадратиков).
Но оказывается, можно поставить четыре маленьких по углам близко друг к другу, но не касаясь, а пятый повернуть на 45 градусов и в середину между ними. Так они уложатся в большой квадрат с длиной стороны примерно 2.7, это лучше, чем 3. Возникает вопрос: насколько можно уменьшить большой квадрат, запаковав маленькие наиболее эффективно? И такой вопрос задается для каждого числа маленьких квадратов, необязательно пяти.
Математик Эрик Фридман исследует этот вопрос и опубликовал набор лучших известных результатов для разных n (n это число маленьких квадратов). Для некоторых написано "proved", это значит строго доказано, для других "found" - это лучшее, что найдено, но не доказано, что нельзя еще лучше. Мне очень нравится результат для n=17 своей хаотичностью и асимметрией. В Твиттере кто-то написал "бог умер и его убил лучший способ упаковать 17 квадратиков в большой квадрат".
Сравните его с красивой симметрией n=26.
Спросите себя: я человек-17 или человек-26?
Но оказывается, можно поставить четыре маленьких по углам близко друг к другу, но не касаясь, а пятый повернуть на 45 градусов и в середину между ними. Так они уложатся в большой квадрат с длиной стороны примерно 2.7, это лучше, чем 3. Возникает вопрос: насколько можно уменьшить большой квадрат, запаковав маленькие наиболее эффективно? И такой вопрос задается для каждого числа маленьких квадратов, необязательно пяти.
Математик Эрик Фридман исследует этот вопрос и опубликовал набор лучших известных результатов для разных n (n это число маленьких квадратов). Для некоторых написано "proved", это значит строго доказано, для других "found" - это лучшее, что найдено, но не доказано, что нельзя еще лучше. Мне очень нравится результат для n=17 своей хаотичностью и асимметрией. В Твиттере кто-то написал "бог умер и его убил лучший способ упаковать 17 квадратиков в большой квадрат".
Сравните его с красивой симметрией n=26.
Спросите себя: я человек-17 или человек-26?
❤1🌚1
#aws #ml #sagemaker
Не пробовал его ещё в бою.. Но когда-то придётся. В одном из докладов обучение на 10Tb картинок масштабируется на 200 GPU с использованием Lustre FS и одного скрипта SageMaker.
https://www.youtube.com/watch?v=0CHyMYFy94c&ab_channel=AWSEvents
Не пробовал его ещё в бою.. Но когда-то придётся. В одном из докладов обучение на 10Tb картинок масштабируется на 200 GPU с использованием Lustre FS и одного скрипта SageMaker.
https://www.youtube.com/watch?v=0CHyMYFy94c&ab_channel=AWSEvents
YouTube
AWS re:Invent 2022 - Train ML models at scale with Amazon SageMaker, featuring AI21 Labs (AIM301)
Training ML models at scale often requires significant investments. In this session, learn how Amazon SageMaker reduces the time and cost to train and tune large-scale ML models without the need to manage infrastructure. Learn how you can take advantage of…