#physics #gravity
"Ах, гравитация, бессердечная ты сука!" © Шелдон
https://www.youtube.com/watch?v=5BluXtPhRhw
"Ах, гравитация, бессердечная ты сука!" © Шелдон
https://www.youtube.com/watch?v=5BluXtPhRhw
YouTube
Алексей Семихатов: Бессердечная гравитация
Смотрите курс Владимира Сурдина «Солнечная система и жизнь во Вселенной»! https://videoknigi.com/
Курсом Сурдина открывается новый научно-популярный проект «Живые книги»!
Сила гравитации – слабейшая, но главная. Популяризатор науки Алексей Семихатов рассказывает…
Курсом Сурдина открывается новый научно-популярный проект «Живые книги»!
Сила гравитации – слабейшая, но главная. Популяризатор науки Алексей Семихатов рассказывает…
Forwarded from kyrillic
Про выбор места жительства, исходя из личных критериев. В постах я подходил к этому вопросу с разных сторон - и опросы устраивал, и неочевидные методы оценки городов описывал (в 12-ти частях), и приватно комментировал детали ваших кейсов с непубличными подробностями (700+ кейсов). Очень многое в решении о пмж зависит от исходных данных - дохода, состава семьи, предпочтений и т.д.
Дисклеймер: описанное - на основе личного опыта и детального знания ваших кейсов. Речь только про варианты с удаленным доходом, потому что с работой на месте понятно - где возможности, туда и ехать. На каждое утверждение у меня масса аргументов, но это собирательный пост, поэтому если нужны детали, могу в других постах пояснить каждое.
Ниже - топ конкретных мест, куда бы сам поехал в выбранных обстоятельствах, если речь про жизнь на пару лет. ВСЕ СУБЪЕКТИВНО! Есть релевантный пост про идеальный год номадизма.
1️⃣ Главный критерий - доход на человека. Указано на одного, после налогов. На двоих взрослых умножаем на 1.3-1.5, Двое с ребенком - x2-2.5 (в зависимости от возраста).
До $1k/мес: список мест ограничен! Выбрал бы провинции развивающихся стран - 🇹🇷 Турции, 🇰🇭 Камбоджи (и других стран ЮВА). 🇹🇭 Чиангмай наверное один из лучших вариантов, из городов покрупнее. Точно не поехал бы: страны СНГ.
$1-2k/мес: выбор богат! Но моими фаворитами были бы: 🇪🇸 Аликанте и особенно окрестности, 🇮🇩 нетуристический Бали, 🇦🇷 Буэнос Айрес. Точно нет: 🇬🇪 Тбилиси, 🇹🇷 Турция, 🇷🇸 Белград и др.
$2-4k/мес: уровень европейца среднего класса. Поэтому выбрал бы мои любимые 🇪🇸 Барселона, 🇩🇪 Берлин, 🇮🇹 Турин. Точно нет: 🇵🇹 Лиссабон, 🇨🇾 Кипр, 🇪🇸 Валенсия.
$4-6k/мес: в целом почти любой город мира, за исключением самых дорогих вроде 🇺🇸 Нью-Йорка. $6k+/мес: вообще куда угодно!
2️⃣ Эстетика, в широком смысле - от мелочей до архитектуры: если она важна, то человеку почти физически больно жить в каком-нибудь 🇦🇪 Дубае, 🇮🇱 Тель Авиве или 🇹🇭 Паттайе. А например в 🇬🇧 Западном Лондоне даже объявление о потере кота будет набрано с хорошей типографикой - ну кайф просто. Для всех, кому важна эстетика/изысканность, любой выбор кроме Франции и Западного Лондона будет скорее всего компромиссом!
Так что тут конечно 🇫🇷 Париж и города поменьше. Отдельно стоит отметить небольшие города 🇮🇹 Лигурии. В том числе потому, что можно часто ездить во Францию! Второй эшелон, приемлего уровня: 🇪🇸 Барселона, 🇳🇱 Амстердам, вся 🇯🇵 Япония.
3️⃣ Приветливость людей (с поправкой на ru-релокантов): многие невосприимчивы или просто не замечают этот фактор. Но для тех, кто это чувствует, особенно пассивно-агрессивную версию неприветливости, как например в 🇬🇪 Грузии, - тяжело в некоторых местах! Например 🇻🇳 Вьетнам - однозначно худший среди всей ЮВА. Просто кайф в 🇯🇵 Японии и 🇰🇷 Корее, вряд ли есть страны с более вежливыми/приветливыми людьми (не путать с интеграцией в общество!)
4️⃣ Культурный код (я его отделяю от менталитета, пост): близкие для ru-релокантов - 🇷🇸 Белград, 🇬🇷 Греция, 🇨🇾 Кипр. Постсоветские страны не учитываю, потому что считаю их культурный код тем же постсоветским, что и у нас. Если про менталитет, то выбрал бы 🇨🇿 Прагу.
5️⃣ Климат - тут проще, есть объекивные факторы (пост)! Считаю лучшими местами для жизни по этому критерию - 🇺🇸 Калифорнию и юга 🇫🇷 Франции и 🇪🇸 Испании.
6️⃣ В моих рейтингах мало ЛатАма, потому что в контексте ru-релокации считаю эти страны ухудшенной версией 🇪🇸 Испании / 🇵🇹 Португалии, за редким исключением. А например 🇨🇦 Канаду и 🇦🇺 Австралию - плохой версией уклада Северной Европы. Еще можно сказать, что эти страны - "Англия без Лондона", но с нелепыми попытками быть нормальными левыми. А как ими быть без Лондона!
Вообще это хорошо работающая методология для личной оценки мест мира: "то же самое, только хуже". Применяю ее постоянно! В следующих постах напишу подробнее, stay tuned!
@kyrillic
Дисклеймер: описанное - на основе личного опыта и детального знания ваших кейсов. Речь только про варианты с удаленным доходом, потому что с работой на месте понятно - где возможности, туда и ехать. На каждое утверждение у меня масса аргументов, но это собирательный пост, поэтому если нужны детали, могу в других постах пояснить каждое.
Ниже - топ конкретных мест, куда бы сам поехал в выбранных обстоятельствах, если речь про жизнь на пару лет. ВСЕ СУБЪЕКТИВНО! Есть релевантный пост про идеальный год номадизма.
1️⃣ Главный критерий - доход на человека. Указано на одного, после налогов. На двоих взрослых умножаем на 1.3-1.5, Двое с ребенком - x2-2.5 (в зависимости от возраста).
До $1k/мес: список мест ограничен! Выбрал бы провинции развивающихся стран - 🇹🇷 Турции, 🇰🇭 Камбоджи (и других стран ЮВА). 🇹🇭 Чиангмай наверное один из лучших вариантов, из городов покрупнее. Точно не поехал бы: страны СНГ.
$1-2k/мес: выбор богат! Но моими фаворитами были бы: 🇪🇸 Аликанте и особенно окрестности, 🇮🇩 нетуристический Бали, 🇦🇷 Буэнос Айрес. Точно нет: 🇬🇪 Тбилиси, 🇹🇷 Турция, 🇷🇸 Белград и др.
$2-4k/мес: уровень европейца среднего класса. Поэтому выбрал бы мои любимые 🇪🇸 Барселона, 🇩🇪 Берлин, 🇮🇹 Турин. Точно нет: 🇵🇹 Лиссабон, 🇨🇾 Кипр, 🇪🇸 Валенсия.
$4-6k/мес: в целом почти любой город мира, за исключением самых дорогих вроде 🇺🇸 Нью-Йорка. $6k+/мес: вообще куда угодно!
2️⃣ Эстетика, в широком смысле - от мелочей до архитектуры: если она важна, то человеку почти физически больно жить в каком-нибудь 🇦🇪 Дубае, 🇮🇱 Тель Авиве или 🇹🇭 Паттайе. А например в 🇬🇧 Западном Лондоне даже объявление о потере кота будет набрано с хорошей типографикой - ну кайф просто. Для всех, кому важна эстетика/изысканность, любой выбор кроме Франции и Западного Лондона будет скорее всего компромиссом!
Так что тут конечно 🇫🇷 Париж и города поменьше. Отдельно стоит отметить небольшие города 🇮🇹 Лигурии. В том числе потому, что можно часто ездить во Францию! Второй эшелон, приемлего уровня: 🇪🇸 Барселона, 🇳🇱 Амстердам, вся 🇯🇵 Япония.
3️⃣ Приветливость людей (с поправкой на ru-релокантов): многие невосприимчивы или просто не замечают этот фактор. Но для тех, кто это чувствует, особенно пассивно-агрессивную версию неприветливости, как например в 🇬🇪 Грузии, - тяжело в некоторых местах! Например 🇻🇳 Вьетнам - однозначно худший среди всей ЮВА. Просто кайф в 🇯🇵 Японии и 🇰🇷 Корее, вряд ли есть страны с более вежливыми/приветливыми людьми (не путать с интеграцией в общество!)
4️⃣ Культурный код (я его отделяю от менталитета, пост): близкие для ru-релокантов - 🇷🇸 Белград, 🇬🇷 Греция, 🇨🇾 Кипр. Постсоветские страны не учитываю, потому что считаю их культурный код тем же постсоветским, что и у нас. Если про менталитет, то выбрал бы 🇨🇿 Прагу.
5️⃣ Климат - тут проще, есть объекивные факторы (пост)! Считаю лучшими местами для жизни по этому критерию - 🇺🇸 Калифорнию и юга 🇫🇷 Франции и 🇪🇸 Испании.
6️⃣ В моих рейтингах мало ЛатАма, потому что в контексте ru-релокации считаю эти страны ухудшенной версией 🇪🇸 Испании / 🇵🇹 Португалии, за редким исключением. А например 🇨🇦 Канаду и 🇦🇺 Австралию - плохой версией уклада Северной Европы. Еще можно сказать, что эти страны - "Англия без Лондона", но с нелепыми попытками быть нормальными левыми. А как ими быть без Лондона!
Вообще это хорошо работающая методология для личной оценки мест мира: "то же самое, только хуже". Применяю ее постоянно! В следующих постах напишу подробнее, stay tuned!
@kyrillic
❤1❤🔥1💯1
#intel
Чиво?! Статью переводили Промптом из 2000-х, или руководители Интел реально так думают?
"Отвечая на вопросы представителей NASDAQ, Гелсингер предположил, что доминирование NVIDIA в области обучения нейросетей на базе технологий CUDA не будет длиться вечно. «Вы знаете, вся индустрия мотивирована на ликвидацию рынка CUDA», — сетует Гелсингер. Он привёл в пример таких разработчиков, как MLIR, Google и OpenAI, предположив, что они переходят на «программирование в стиле Pythonic» (без правил), чтобы сделать обучение ИИ более открытым. «Мы считаем ров CUDA неглубоким и небольшим, — продолжил Гелсингер. — Потому что индустрия мотивирована на внедрение более широкого набора технологий для обучения, инноваций, науки о данных и т. д.»
При этом Intel считает, что разработчикам ускорителей вычислений не стоит полагаться только на обучение нейросетей — нужно ещё создавать продукты для работы уже обученных нейросетей (инференса). «Как только вы обучили модель, происходит её вывод... Нет никакой зависимости от CUDA, — продолжает Гелсингер. — Всё дело в том, можете ли вы хорошо запустить эту модель?» Глава Intel предположил, что с представленным вчера ускорителем вычислений Gaudi 3, а также с чипами Xeon и обычными процессорами для пользовательских компьютеров, Intel справится с задачей запуска модели. Не то чтобы Intel не будет конкурировать в области обучения, но «по сути, рынок инференса — это то, где будет проходить игра», считает Гелсингер.
Сандра Ривера (Sandra Rivera), исполнительный вице-президент и генеральный менеджер подразделения Data Center and AI Group в Intel, добавила, что масштабы Intel от центра обработки данных до ПК могут сделать её предпочтительным партнёром для разработчиков ИИ, поскольку она может производить продукцию в больших объёмах."
https://3dnews.ru/1097498/generalniy-direktor-intel-raskritikoval-tehnologiyu-cuda-ot-nvidia
Чиво?! Статью переводили Промптом из 2000-х, или руководители Интел реально так думают?
"Отвечая на вопросы представителей NASDAQ, Гелсингер предположил, что доминирование NVIDIA в области обучения нейросетей на базе технологий CUDA не будет длиться вечно. «Вы знаете, вся индустрия мотивирована на ликвидацию рынка CUDA», — сетует Гелсингер. Он привёл в пример таких разработчиков, как MLIR, Google и OpenAI, предположив, что они переходят на «программирование в стиле Pythonic» (без правил), чтобы сделать обучение ИИ более открытым. «Мы считаем ров CUDA неглубоким и небольшим, — продолжил Гелсингер. — Потому что индустрия мотивирована на внедрение более широкого набора технологий для обучения, инноваций, науки о данных и т. д.»
При этом Intel считает, что разработчикам ускорителей вычислений не стоит полагаться только на обучение нейросетей — нужно ещё создавать продукты для работы уже обученных нейросетей (инференса). «Как только вы обучили модель, происходит её вывод... Нет никакой зависимости от CUDA, — продолжает Гелсингер. — Всё дело в том, можете ли вы хорошо запустить эту модель?» Глава Intel предположил, что с представленным вчера ускорителем вычислений Gaudi 3, а также с чипами Xeon и обычными процессорами для пользовательских компьютеров, Intel справится с задачей запуска модели. Не то чтобы Intel не будет конкурировать в области обучения, но «по сути, рынок инференса — это то, где будет проходить игра», считает Гелсингер.
Сандра Ривера (Sandra Rivera), исполнительный вице-президент и генеральный менеджер подразделения Data Center and AI Group в Intel, добавила, что масштабы Intel от центра обработки данных до ПК могут сделать её предпочтительным партнёром для разработчиков ИИ, поскольку она может производить продукцию в больших объёмах."
https://3dnews.ru/1097498/generalniy-direktor-intel-raskritikoval-tehnologiyu-cuda-ot-nvidia
3DNews - Daily Digital Digest
«Индустрия мотивирована на устранение CUDA»: гендиректор Intel раскритиковал закрытость технологий NVIDIA
Генеральный директор Intel Пэт Гелсингер (Pat Gelsinger) выступил с критикой технологии CUDA от компании NVIDIA во время презентации чипов Intel Core Ultra и Xeon Scalable 5-го поколения.
#mindreading #zuco #dewave
"Для считывания активности мозга была использована простая шапочка с электродами. Она снимала электроэнцефалограмму (ЭЭГ) — это рутинная, в общем-то, процедура для установки множества диагнозов, связанных с работой мозга. Эта процедура разрешена даже для детей и не несёт никакой опасности для пациента. Читать с её помощью мысли, конечно же, нельзя. Поэтому на следующем этапе учёные добавили к ЭЭГ большую языковую модель (LLM) и открытый набор данных ZuCo, что сразу перевело разработку в разряд перспективных.
Пакет ZuCo содержит данные о траектории движения глаз пациента в процессе чтения в сочетании с показаниями ЭЭГ. Как долго взгляд задерживается на слове, куда и в каком темпе перепрыгивает и другое. В сочетании с ИИ (с большой языковой моделью) и данными с ЭЭГ возникают сопоставления, которые транслируются в текст.
Исследователи из Технологического университета Сиднея (UTS) создали платформу DeWave LLM, которую протестировали на 29 добровольцах. Оказалось, что точность распознавания мысленно произнесённых фраз в среднем составляет 42,8 % в рамках двуязычной оценочной методики машинного перевода BLEU-1. Довольно неплохо для неинвазивной технологии чтения мыслей.
При этом система часто использовала синонимы вместо реально произнесённых пациентом слов и лучше понимала глаголы, что можно объяснить ограниченным набором данных. Впрочем, простор для улучшения методики есть, и опыт это хорошо показал. В любом случае, это лучше, чем ничего, а для страдающих проблемами речи людей это возможность вернуться к живому общению."
https://3dnews.ru/1097485/s-pomoshchyu-ii-i-eeg-uchyonie-nauchilis-chitat-misli-patsientov-ne-vlezaya-k-nim-v-golovu
"Для считывания активности мозга была использована простая шапочка с электродами. Она снимала электроэнцефалограмму (ЭЭГ) — это рутинная, в общем-то, процедура для установки множества диагнозов, связанных с работой мозга. Эта процедура разрешена даже для детей и не несёт никакой опасности для пациента. Читать с её помощью мысли, конечно же, нельзя. Поэтому на следующем этапе учёные добавили к ЭЭГ большую языковую модель (LLM) и открытый набор данных ZuCo, что сразу перевело разработку в разряд перспективных.
Пакет ZuCo содержит данные о траектории движения глаз пациента в процессе чтения в сочетании с показаниями ЭЭГ. Как долго взгляд задерживается на слове, куда и в каком темпе перепрыгивает и другое. В сочетании с ИИ (с большой языковой моделью) и данными с ЭЭГ возникают сопоставления, которые транслируются в текст.
Исследователи из Технологического университета Сиднея (UTS) создали платформу DeWave LLM, которую протестировали на 29 добровольцах. Оказалось, что точность распознавания мысленно произнесённых фраз в среднем составляет 42,8 % в рамках двуязычной оценочной методики машинного перевода BLEU-1. Довольно неплохо для неинвазивной технологии чтения мыслей.
При этом система часто использовала синонимы вместо реально произнесённых пациентом слов и лучше понимала глаголы, что можно объяснить ограниченным набором данных. Впрочем, простор для улучшения методики есть, и опыт это хорошо показал. В любом случае, это лучше, чем ничего, а для страдающих проблемами речи людей это возможность вернуться к живому общению."
https://3dnews.ru/1097485/s-pomoshchyu-ii-i-eeg-uchyonie-nauchilis-chitat-misli-patsientov-ne-vlezaya-k-nim-v-golovu
3DNews - Daily Digital Digest
Все самое интересное из мира IT-индустрии
Самые интересные и оперативные новости из мира высоких технологий. На нашем портале - все о компьютерном железе, гаджетах, ноутбуках и других цифровых устройствах. А также обзоры новых игр, достижения современной науки и самые любопытные онлайн-проекты.
#fun #python #plotly
Как с помощью Питона и plotly создать трёхмерную модель варёной колбасы с оливками для новогоднего салата Оливье?
Как с помощью Питона и plotly создать трёхмерную модель варёной колбасы с оливками для новогоднего салата Оливье?
import plotly.graph_objects as go
import numpy as np
X, Y, Z = np.mgrid[-1:1:30j, -1:1:30j, -1:1:30j]
values = np.sin(np.pi*X) * np.cos(np.pi*Z) * np.sin(np.pi*Y)
fig = go.Figure(data=go.Volume(
x=X.flatten(),
y=Y.flatten(),
z=Z.flatten(),
value=values.flatten(),
isomin=-0.1,
isomax=0.8,
opacity=0.1, # needs to be small to see through all surfaces
surface_count=21, # needs to be a large number for good volume rendering
))
fig.show()#plotly #visualization #widgets #figurewidget
Как писать виджеты на Plotly. Делаю свой виджет для отображения прогресса отборщика признаков, так что пришлось покопаться )
https://www.youtube.com/watch?v=1ndo6C1KWjI
Как писать виджеты на Plotly. Делаю свой виджет для отображения прогресса отборщика признаков, так что пришлось покопаться )
https://www.youtube.com/watch?v=1ndo6C1KWjI
YouTube
Bringing ipywidgets Support to plotly.py | SciPy 2018 | Jon Mease
We describe our efforts to bring full ipywidgets support to the plotly.py data visualization library. This work brings many exciting new features to Jupyter Notebook users working with plotly.py including Python callbacks, in-place figure updates, binary…
👍1
#amd #nvidia #benchmarks
Неужели Нвидия смухлевала в тестах?
"По словам AMD, свои данные NVIDIA приводит:
на основе тестов H100 с библиотеками TensorRT-LLM вместо библиотек vLLM, которые использовались для тестов ускорителей AMD;
сравнивает производительность ускорителей AMD Instinct MI300X в вычислениях на числах FP16, а для тестов своих H100 использует данные типа FP8;
в графиках инвертировала данные AMD об относительной задержке в показатель абсолютной пропускной способности.
Согласно новым тестам AMD, её ускорители MI300X, работающие с библиотеками vLLM, на 30 % производительнее ускорителей NVIDIA H100, даже если последние работают с библиотеками TensorRT-LLM. "
https://3dnews.ru/1097567/amd-otvetila-na-zayavleniya-nvidia-uskoriteli-mi300x-bistree-h100-na-30-dage-v-optimizirovannih-sredah-ispolzovaniya
Неужели Нвидия смухлевала в тестах?
"По словам AMD, свои данные NVIDIA приводит:
на основе тестов H100 с библиотеками TensorRT-LLM вместо библиотек vLLM, которые использовались для тестов ускорителей AMD;
сравнивает производительность ускорителей AMD Instinct MI300X в вычислениях на числах FP16, а для тестов своих H100 использует данные типа FP8;
в графиках инвертировала данные AMD об относительной задержке в показатель абсолютной пропускной способности.
Согласно новым тестам AMD, её ускорители MI300X, работающие с библиотеками vLLM, на 30 % производительнее ускорителей NVIDIA H100, даже если последние работают с библиотеками TensorRT-LLM. "
https://3dnews.ru/1097567/amd-otvetila-na-zayavleniya-nvidia-uskoriteli-mi300x-bistree-h100-na-30-dage-v-optimizirovannih-sredah-ispolzovaniya
3DNews - Daily Digital Digest
AMD опровергла опровержение NVIDIA — ИИ-ускоритель MI300X на 30 % быстрее NVIDIA H100, даже с оптимизациями
Компания AMD ответила на недавнее заявление NVIDIA о том, что ускорители вычислений NVIDIA H100, при использовании оптимизированных библиотек TensorRT-LLM для ИИ-расчётов, быстрее справляются с поставленными задачами, чем новые ускорители AMD Instinct MI300X.
#astronomy #ml
ML применили, не иначе!
"Чем массивнее звезда, тем ниже пульсации, которые буквально можно переводить в воспринимаемый человеком частотный диапазон и слушать как музыку. Эту «музыку» можно улавливать на космических расстояниях. Сопоставляя видимый с Земли блеск звезды и её звучание можно сделать вывод о её истинных размерах и светимости, и построить диаграмму затухания блеска, что подскажет расстояние до изучаемого объекта.
Астрономы из Федеральной политехнической школы Лозанны взяли огромную выборку из более чем 12 тыс. переменных звёзд красных гигантов и проверили на ней свой метод. Перед собой они поставили задачу проверить точность измерения расстояний до звёзд, полученных европейским астрометрическим спутником «Гайя» (Gaia). На сегодня Gaia измерила расстояния до 2 млрд звёзд в ближайшей Вселенной, но чем дальше до звезды, тем менее точными будут измерения. Новый метод с прослушиванием «музыки» звёзд должен был уточнить данные «Гайи» и доказать возможность более точного измерения расстояний до ещё более удалённых звёзд.
Предложенный швейцарскими учёными метод доказал свою состоятельность. Им удалось определить расстояния до множества звёзд на дальности до 15 тыс. световых лет. Методика будет улучшена и опробована на всех участках неба, что поможет в будущих исследованиях экзопланет и не только."
https://3dnews.ru/1097563/muzika-zvyozd-raskroet-taynu-rasstoyaniya-do-kagdoy-iz-nih
ML применили, не иначе!
"Чем массивнее звезда, тем ниже пульсации, которые буквально можно переводить в воспринимаемый человеком частотный диапазон и слушать как музыку. Эту «музыку» можно улавливать на космических расстояниях. Сопоставляя видимый с Земли блеск звезды и её звучание можно сделать вывод о её истинных размерах и светимости, и построить диаграмму затухания блеска, что подскажет расстояние до изучаемого объекта.
Астрономы из Федеральной политехнической школы Лозанны взяли огромную выборку из более чем 12 тыс. переменных звёзд красных гигантов и проверили на ней свой метод. Перед собой они поставили задачу проверить точность измерения расстояний до звёзд, полученных европейским астрометрическим спутником «Гайя» (Gaia). На сегодня Gaia измерила расстояния до 2 млрд звёзд в ближайшей Вселенной, но чем дальше до звезды, тем менее точными будут измерения. Новый метод с прослушиванием «музыки» звёзд должен был уточнить данные «Гайи» и доказать возможность более точного измерения расстояний до ещё более удалённых звёзд.
Предложенный швейцарскими учёными метод доказал свою состоятельность. Им удалось определить расстояния до множества звёзд на дальности до 15 тыс. световых лет. Методика будет улучшена и опробована на всех участках неба, что поможет в будущих исследованиях экзопланет и не только."
https://3dnews.ru/1097563/muzika-zvyozd-raskroet-taynu-rasstoyaniya-do-kagdoy-iz-nih
3DNews - Daily Digital Digest
«Музыка» звёзд раскроет тайну расстояния до каждой из них
Что скрывается за светящейся точкой на небе, нельзя узнать без информации о расстоянии до неё.
#gpt #dash #dashboard
Раньше я старался избегать термина AI, так как ещё год тому это было лишь маркетингвой хернёй. Но сейчас это реально уже AI, и больше всего меня удивляет то, почему людей и меня самого эта технология уже не удивляет. Почему мы так быстро к ней привыкли?
https://www.youtube.com/watch?v=gs4d0_AKQi8
Раньше я старался избегать термина AI, так как ещё год тому это было лишь маркетингвой хернёй. Но сейчас это реально уже AI, и больше всего меня удивляет то, почему людей и меня самого эта технология уже не удивляет. Почему мы так быстро к ней привыкли?
https://www.youtube.com/watch?v=gs4d0_AKQi8
YouTube
Build a Python Dashboard with ChatGPT Lightning Fast
Learn the quickest way to build a Python Dashboard with ChatGPT Plotly and Dash. We'll show you two separate dashboards, of varying sophistication, and we'll suggest best practices for giving instructions to ChatGPT.
Datasets:
https://github.com/plotl…
Datasets:
https://github.com/plotl…
👍2
#selfsupervised #cv #pretext #jigsaw #augmentations #siamese #simclr #byol #simsiam #dino
По поводу предсказания угла поворота картинки что-тио сомнительно...
https://www.youtube.com/watch?v=vICrdSUS9vg
По поводу предсказания угла поворота картинки что-тио сомнительно...
https://www.youtube.com/watch?v=vICrdSUS9vg
YouTube
Vahan Huroyan - Recent Developments in Self-Supervised Learning for Computer Vision
Vahan Huroyan, a Machine Learning Researcher at the YerevaNN research lab, provides a talk on “Recent Developments in Self-Supervised Learning for Computer Vision.”
During the talk, you will discover the latest developments in self-supervised learning (SSL)…
During the talk, you will discover the latest developments in self-supervised learning (SSL)…
#timeseries #vorontsov #holt #winters #trigg #leach #adaptiveselection #lawr
https://www.youtube.com/watch?v=Rmh6b96u6UU
https://www.youtube.com/watch?v=Rmh6b96u6UU
YouTube
Машинное обучение. Прогнозирование временных рядов. К.В. Воронцов, Школа анализа данных, Яндекс.
Прогнозирование временных рядов – это специальный случай задачи регрессии, в которой объекты выборки линейно упорядочены по времени. Обучающая выборка находится в прошлом, тестовая – в будущем. В простых задачах из области эконометрики поведение временного…
👍1
#math #education #agi #vorontsov
Воронцов классно выступил.
Очень понравилась его идея, что в школе все предметы нужно сделать более связанными с реальностью, практикой. На уроках литературы меньше учить классику, больше международную, литературу других религий. Жить сцуко где собираетесь, в 18 веке, в Российской империи? По химии, физике, биологии больше опытов. Математику и геометрию дополнять чисметодами и моделированием. По географии, наверное, путешествий? ) Было бы круто жить в такой стране мечты. "5-й А, собирайтесь, мы завтра летим вертолётами смотреть вулканы на Камчатке". Если управляет страной не питекантроп, это всё кажется возможным.
Ещё интересна его аргументация, что с появлением сильного ИИ не наступит сингулярности по Курцвейлу и ничего в нашем быте критически не изменится.
https://www.youtube.com/watch?v=_P2N5W-c9rQ
Воронцов классно выступил.
Очень понравилась его идея, что в школе все предметы нужно сделать более связанными с реальностью, практикой. На уроках литературы меньше учить классику, больше международную, литературу других религий. Жить сцуко где собираетесь, в 18 веке, в Российской империи? По химии, физике, биологии больше опытов. Математику и геометрию дополнять чисметодами и моделированием. По географии, наверное, путешествий? ) Было бы круто жить в такой стране мечты. "5-й А, собирайтесь, мы завтра летим вертолётами смотреть вулканы на Камчатке". Если управляет страной не питекантроп, это всё кажется возможным.
Ещё интересна его аргументация, что с появлением сильного ИИ не наступит сингулярности по Курцвейлу и ничего в нашем быте критически не изменится.
https://www.youtube.com/watch?v=_P2N5W-c9rQ
YouTube
Константин Воронцов — о математике, ИИ, фейковых новостях и демократии
🎯 Поддержать популяризацию математики на Патреоне: https://patreon.com/savvateev
+ «Карфаген должен быть разрушен». Катон Цензор после поездки в Карфаген в конце 150-х годов (по разным сведениям состоявшейся в 153 или 152 году до н. э.) заканчивал этим высказыванием…
+ «Карфаген должен быть разрушен». Катон Цензор после поездки в Карфаген в конце 150-х годов (по разным сведениям состоявшейся в 153 или 152 году до н. э.) заканчивал этим высказыванием…
А Вы как считаете, с появлением сильного ИИ наступит ли "сингулярность" по Курцвейлу (эпоха экспоненциального развития человечества, непредставимых пока открытий и достижений)?
Anonymous Poll
48%
Нет. Если экскаватору дать разум, он не перевернёт мир. Будет постепенное улучшение.
52%
Наступит! Разумный экскаватор изобретёт лучший способ копать и сам построит подземный мегаполис!
#translations
Постоянно сталкиваюсь с тем, что переведённые книги оставляют впечатление, будто автор - косноязычный даун. Вроде уже прошли 90-е с системой перевода Промпт, но, видно, прромпт живёт у нас в сердцах. Так называемые "переводчики"! Ну нельзя переводить тексты с английского пословно, НЕЛЬЗЯ. Дайте вы немного больше свободы, отклонитесь от грамматической структуры оригинала, но сделайте текст хорошо звучащим на целевом языке. Ну неужели не видите, что у вас получается говно?
Постоянно сталкиваюсь с тем, что переведённые книги оставляют впечатление, будто автор - косноязычный даун. Вроде уже прошли 90-е с системой перевода Промпт, но, видно, прромпт живёт у нас в сердцах. Так называемые "переводчики"! Ну нельзя переводить тексты с английского пословно, НЕЛЬЗЯ. Дайте вы немного больше свободы, отклонитесь от грамматической структуры оригинала, но сделайте текст хорошо звучащим на целевом языке. Ну неужели не видите, что у вас получается говно?
#chan #featureselection
Прочитал научную статью Эрни Чана о выборе признаков, разочаровался.
"Feature selection in machine learning is subject to the intrinsic randomness of the feature selection algorithms (e.g. random permutations during MDA). Stability of selected features with respect to such randomness is essential to the human interpretability of a machine learning algorithm. We proposes a rank-based stability metric called ‘instability index’ to compare the stabilities of three feature selection algorithms MDA, LIME, and SHAP as applied to random forests. Typically, features are selected by averaging many random iterations of a selection algorithm. Though we find that the variability of the selected features does decrease as the number of iterations increases, it does not go to zero, and the features selected by the three algorithms do not necessarily converge to the same set. We find LIME and SHAP to be more stable than MDA, and LIME is at least as stable as SHAP for the top ranked features. Hence overall LIME is best suited for human interpretability. However, the selected set of features from all three algorithms significantly improves various predictive metrics out-of-sample, and their predictive performances do not differ significantly. Experiments were conducted on synthetic datasets, two public benchmark datasets, and on proprietary data from an active investment strategy."
https://arxiv.org/ftp/arxiv/papers/2005/2005.12483.pdf
Прочитал научную статью Эрни Чана о выборе признаков, разочаровался.
"Feature selection in machine learning is subject to the intrinsic randomness of the feature selection algorithms (e.g. random permutations during MDA). Stability of selected features with respect to such randomness is essential to the human interpretability of a machine learning algorithm. We proposes a rank-based stability metric called ‘instability index’ to compare the stabilities of three feature selection algorithms MDA, LIME, and SHAP as applied to random forests. Typically, features are selected by averaging many random iterations of a selection algorithm. Though we find that the variability of the selected features does decrease as the number of iterations increases, it does not go to zero, and the features selected by the three algorithms do not necessarily converge to the same set. We find LIME and SHAP to be more stable than MDA, and LIME is at least as stable as SHAP for the top ranked features. Hence overall LIME is best suited for human interpretability. However, the selected set of features from all three algorithms significantly improves various predictive metrics out-of-sample, and their predictive performances do not differ significantly. Experiments were conducted on synthetic datasets, two public benchmark datasets, and on proprietary data from an active investment strategy."
https://arxiv.org/ftp/arxiv/papers/2005/2005.12483.pdf
#vorontsov
https://www.youtube.com/watch?v=SZkrxWhI5qM&list=PLJOzdkh8T5krxc4HsHbB8g8f0hu7973fK&index=5
Вообще отличный курс в виде плейлиста на ютубе. Советую.
https://www.youtube.com/watch?v=SZkrxWhI5qM&list=PLJOzdkh8T5krxc4HsHbB8g8f0hu7973fK&index=5
Вообще отличный курс в виде плейлиста на ютубе. Советую.
YouTube
Машинное обучение. Вводная лекция. К.В. Воронцов, Школа анализа данных, Яндекс.
Вводная лекция. В первой половине лекции вводятся обозначения и понятия, которые будут использоваться на протяжении всего курса: объекты, признаки, функция потерь, предсказательная модель, минимизация эмпирического риска, обучающая выборка, тестовая выборка…
👍1