#timeseries #similarity #aeon #elasticdistance #dtw #distances
Корреляция Пирсона тихо плачет в сторонке
https://www.youtube.com/watch?v=O5cnKAUBKkg
Корреляция Пирсона тихо плачет в сторонке
https://www.youtube.com/watch?v=O5cnKAUBKkg
YouTube
Lets do the time warp again: time series machine learning with distance functions | PDAMS 2023
Many algorithms for machine learning from time series are based on measuring the distance or similarity between series. The most popular distance measure is dynamic time warping, which attempts to optimally realign two series to compensate for offest. There…
#science
Один из итогов бездарного управления страной. Китайские товарищи - красавцы.
"Согласно ежегодному индексу Nature, Пекин снова стал лучшим городом мира по качеству и количеству научных работ, а Шанхай занял третье место. Среди 50 лучших городов в этом рейтинге 18 китайских, которые за год улучшили свои позиции, тогда как европейские и американские мегаполисы их ослабили. В списке 200 самых научных городов попал один российский — это Москва, которая расположилась на 60 месте."
https://3dnews.ru/1096523/kitayskie-goroda-rastut-v-mirovom-nauchnom-reytinge-a-amerikanskie-i-evropeyskie-teryayut-pozitsii
https://www.nature.com/nature-index/supplements/nature-index-2023-science-cities/tables/overall
Один из итогов бездарного управления страной. Китайские товарищи - красавцы.
"Согласно ежегодному индексу Nature, Пекин снова стал лучшим городом мира по качеству и количеству научных работ, а Шанхай занял третье место. Среди 50 лучших городов в этом рейтинге 18 китайских, которые за год улучшили свои позиции, тогда как европейские и американские мегаполисы их ослабили. В списке 200 самых научных городов попал один российский — это Москва, которая расположилась на 60 месте."
https://3dnews.ru/1096523/kitayskie-goroda-rastut-v-mirovom-nauchnom-reytinge-a-amerikanskie-i-evropeyskie-teryayut-pozitsii
https://www.nature.com/nature-index/supplements/nature-index-2023-science-cities/tables/overall
3DNews - Daily Digital Digest
Москва заняла 60 место в списке самых научных городов мира — лидируют города Китая, а американские и европейские теряют позиции
Согласно ежегодному индексу Nature, Пекин снова стал лучшим городом мира по качеству и количеству научных работ, а Шанхай занял третье место.
🤡3😁1
#openai #scrubs
А тем временем где-то в недрах OpenAI
"Between the 2 of us there's no wall
We are the surgeon and the doc.. above.. it.. all.." ))
https://www.youtube.com/watch?v=ow_QTqkFaX8
А тем временем где-то в недрах OpenAI
"Between the 2 of us there's no wall
We are the surgeon and the doc.. above.. it.. all.." ))
https://www.youtube.com/watch?v=ow_QTqkFaX8
YouTube
Scrubs - Duet
JD and Turk's Broadway dance and duet
#chess #statistics #simulation #cheating #visualization
https://dorianquelle.github.io/blog/How-To-Catch-Smart-Cheaters/
https://dorianquelle.github.io/blog/How-To-Catch-Smart-Cheaters/
Personal Website of Dorian Quelle
Titled Tuesday Cheating - Part 2 - Fantastic Cheaters and Where to Find Them
Fantastic Cheaters and Where to Find Them. Using the Elo system to detect cheating in Titled Tuesday tournaments.
#chess #statistics #simulation #cheating #visualization #stockfish
Красивые визуализации шахмат от Дориана Квелле. Интересная метрика average loss after novelty, видно, что он сам придумал, классная идея.
"Yet, the standout performer is David Howell, with an average score of 0.9071. Despite his tendency to withdraw or join late to tournaments, this strategy seems to benefit him as he avoids facing high-performing players in later rounds. With a record of 120 wins, 14 draws, and only 6 losses, Howell clearly dominates the field."
"Yet, the left plot exposes a glaring inconsistency in Kramnik’s performance. Despite his high accuracy in playing engine-recommended moves, he registers a higher average loss per move than one would expect for a player of his Elo rating. This suggests that while Kramnik plays the engine move in most cases, he is also prone to significant blunders. Playing the fools mate because you’re suspecting a player of cheating doesn’t help either."
https://dorianquelle.github.io/blog/Cheating-In-Titled-Tuesday/
Красивые визуализации шахмат от Дориана Квелле. Интересная метрика average loss after novelty, видно, что он сам придумал, классная идея.
"Yet, the standout performer is David Howell, with an average score of 0.9071. Despite his tendency to withdraw or join late to tournaments, this strategy seems to benefit him as he avoids facing high-performing players in later rounds. With a record of 120 wins, 14 draws, and only 6 losses, Howell clearly dominates the field."
"Yet, the left plot exposes a glaring inconsistency in Kramnik’s performance. Despite his high accuracy in playing engine-recommended moves, he registers a higher average loss per move than one would expect for a player of his Elo rating. This suggests that while Kramnik plays the engine move in most cases, he is also prone to significant blunders. Playing the fools mate because you’re suspecting a player of cheating doesn’t help either."
https://dorianquelle.github.io/blog/Cheating-In-Titled-Tuesday/
Personal Website of Dorian Quelle
Analysis of Cheating In Titled Tuesday
An in depth computational analysis of cheating in Chess.com Titled-Tuesday tournaments
#preprocessing #cleaning #anomalydetection
Не в первый раз ловлю себя на том, что данные, которые не получается хорошо промоделировать, хочется выкинуть из датасета, и переобучиться. Нормально ли это?
Не в первый раз ловлю себя на том, что данные, которые не получается хорошо промоделировать, хочется выкинуть из датасета, и переобучиться. Нормально ли это?
Anonymous Poll
30%
Да, т.к. часто входные данные зашумлены, а обучение на шуме портит метрики для "нормальной" части
0%
Специально так всегда делаю
10%
Нет! Удаление таких точек прячет факт, что на таргет влияют другие
30%
Специально так никогда не делаю
10%
Никогда об этом не приходилось задумываться
40%
Выбираю метод в зависимости от датасета и доверия к качеству меток
0%
У меня встроенный детектор аномалий и fit_resample
#nvidia #cuda
В AMD продолжают рвать волосы под мышками от зависти, видимо. Как же так, карл, наши видеокарточки ведь ничем не хуже по железу, а поди-ка ты, никому и нахрен не нужны, кроме геймеров...
"Аналитики полагают, что продажи ускорителей NVIDIA H100 и A100 превысят полмиллиона единиц в четвертом квартале 2023 года. Между тем, спрос на H100 и A100 настолько велик, что срок поставки серверов на базе этих GPU достигает 52 недель. В то же время Omdia сообщает, что в целом объём поставок серверов в 2023 году сократится на 17–20 % по сравнению с прошлым годом, но при этом выручка в этом направлении вырастет на 6–8 % в годовом исчислении.
Следует также отметить, что многие из крупнейших покупателей специализированных ускорителей NVIDIA H100 и A100 сами разрабатывают собственные специализированные GPU для задач ИИ, высокопроизводительных вычислений и графики. Поэтому в перспективе объёмы закупок оборудования у NVIDIA этими компаниями снизятся по мере перехода на собственные решения.
Эксперты Omdia считают, что крупнейшими покупателями графических ускорителей NVIDIA H100 являются компании Meta и Microsoft. По мнению аналитиков, каждая из них закупила по 150 тыс. указанных ускорителей. В свою очередь Google, Amazon, Oracle и Tencent купили по 50 тыс. указанных специализированных ускорителей. Примечательно, что основная часть серверных ускорителей поставляется операторам гипермасштабируемых облачных услуг. В свою очередь, OEM-производители серверов (Dell, Lenovo, HPE) пока не могут забронировать достаточное количество графических процессоров для ИИ и высокопроизводительных вычислений, чтобы выполнить свои заказы на поставки серверов, утверждают специалисты Omdia."
https://3dnews.ru/1096589/nvidia-prodala-pochti-polmilliona-spetsializirovannih-iiuskoriteley-v-tretem-kvartale-utvergdayut-analitiki-omdia
В AMD продолжают рвать волосы под мышками от зависти, видимо. Как же так, карл, наши видеокарточки ведь ничем не хуже по железу, а поди-ка ты, никому и нахрен не нужны, кроме геймеров...
"Аналитики полагают, что продажи ускорителей NVIDIA H100 и A100 превысят полмиллиона единиц в четвертом квартале 2023 года. Между тем, спрос на H100 и A100 настолько велик, что срок поставки серверов на базе этих GPU достигает 52 недель. В то же время Omdia сообщает, что в целом объём поставок серверов в 2023 году сократится на 17–20 % по сравнению с прошлым годом, но при этом выручка в этом направлении вырастет на 6–8 % в годовом исчислении.
Следует также отметить, что многие из крупнейших покупателей специализированных ускорителей NVIDIA H100 и A100 сами разрабатывают собственные специализированные GPU для задач ИИ, высокопроизводительных вычислений и графики. Поэтому в перспективе объёмы закупок оборудования у NVIDIA этими компаниями снизятся по мере перехода на собственные решения.
Эксперты Omdia считают, что крупнейшими покупателями графических ускорителей NVIDIA H100 являются компании Meta и Microsoft. По мнению аналитиков, каждая из них закупила по 150 тыс. указанных ускорителей. В свою очередь Google, Amazon, Oracle и Tencent купили по 50 тыс. указанных специализированных ускорителей. Примечательно, что основная часть серверных ускорителей поставляется операторам гипермасштабируемых облачных услуг. В свою очередь, OEM-производители серверов (Dell, Lenovo, HPE) пока не могут забронировать достаточное количество графических процессоров для ИИ и высокопроизводительных вычислений, чтобы выполнить свои заказы на поставки серверов, утверждают специалисты Omdia."
https://3dnews.ru/1096589/nvidia-prodala-pochti-polmilliona-spetsializirovannih-iiuskoriteley-v-tretem-kvartale-utvergdayut-analitiki-omdia
3DNews - Daily Digital Digest
NVIDIA продала почти полмиллиона ИИ-ускорителей в третьем квартале, а новые партии расписаны на год вперёд
Основная доля выручки NVIDIA в размере $14,5 млрд в сегменте оборудования для центров обработки данных в третьем квартале пришлась на продажи специализированных графических ускорителей H100 для ИИ и высокопроизводительных вычислений (HPC).
👍1
#vr #xr
Варио молодцы, очень сильным был ход со снижением стоимости Aero. Я, правда, не купил, несколько разуверился в шлемах с подключением по кабелю. Помню, купил дорогой оптоволоконный кабель для Квеста, и на 2й день прищемил его дверью, летально )
https://3dnews.ru/1096587/varjo-predstavila-garnituru-smeshannoy-realnosti-xr4-korporativnogo-urovnya-stoimostyu-ot-3990
Варио молодцы, очень сильным был ход со снижением стоимости Aero. Я, правда, не купил, несколько разуверился в шлемах с подключением по кабелю. Помню, купил дорогой оптоволоконный кабель для Квеста, и на 2й день прищемил его дверью, летально )
https://3dnews.ru/1096587/varjo-predstavila-garnituru-smeshannoy-realnosti-xr4-korporativnogo-urovnya-stoimostyu-ot-3990
3DNews - Daily Digital Digest
Apple Vision Pro, подвинься: Varjo представила гарнитуру смешанной реальности XR-4 по цене от $3990
Финский стартап Varjo, занимающийся разработкой гарнитур смешанной реальности, представил новую модель гарнитуры XR-4.
#astronomy #sun #sdo #photosphere #chromospherel #transitionzone #convectionzone #radiativezone #corona #flares #spots #holes #spicules #filaments #rain #granules
Как устроено Солнце?
https://www.youtube.com/watch?v=6EbuAEagQj4
Как устроено Солнце?
https://www.youtube.com/watch?v=6EbuAEagQj4
YouTube
The Deepest We Have Ever Seen Into the Sun | SDO 4K
How viewing the Sun in ultraviolet can uncover its secrets. Get a 20% discount on your next VisiSolar purchase when you use this link: https://bit.ly/49G6XhX
Part 2: https://www.youtube.com/watch?v=6EbuAEagQj4
Astrum Podcast: https://www.buzzsprout.com/2250635/share…
Part 2: https://www.youtube.com/watch?v=6EbuAEagQj4
Astrum Podcast: https://www.buzzsprout.com/2250635/share…
#chess
В очередной раз гениальный шахматист доказал, что шахматный уровень и общий интеллект слабо связаны между собой. А я-то раньше Крамника уважал.
"@kainxjm
12 часов назад
Kramnik is living proof that chess ability and intelligence are two completely separate things.
@TENTAKILLSMOBILEGAMING
19 часов назад
Kramnik slowly becoming crazy same as fisher
"
https://www.youtube.com/watch?v=bVR5lcItYzM
В очередной раз гениальный шахматист доказал, что шахматный уровень и общий интеллект слабо связаны между собой. А я-то раньше Крамника уважал.
"@kainxjm
12 часов назад
Kramnik is living proof that chess ability and intelligence are two completely separate things.
@TENTAKILLSMOBILEGAMING
19 часов назад
Kramnik slowly becoming crazy same as fisher
"
https://www.youtube.com/watch?v=bVR5lcItYzM
YouTube
Kramnik thinks Hikaru is sussy
➡️ 40% OFF BLACK FRIDAY COURSES: https://www.chessly.com/
➡️ Get my best-selling chess book: https://geni.us/gothamchess
Photos by Lennart Ootes and Chess.com: https://www.chessphotoshop.com/Paris-GCT-2018/i-B4qvh46 https://x.com/chesscom/status/1665434449738178562…
➡️ Get my best-selling chess book: https://geni.us/gothamchess
Photos by Lennart Ootes and Chess.com: https://www.chessphotoshop.com/Paris-GCT-2018/i-B4qvh46 https://x.com/chesscom/status/1665434449738178562…
#hardware #aws
"NVIDIA GH200 NVL32 представляет собой готовую систему, выполненную в формате стандартной серверной стойки. Она объединяет 32 гибридных ускорителя NVIDIA GH200 Grace Hopper Superchip, которые представляют собой двухчиповую систему из центрального процессора с 72 ядрами Arm Neoverse и графического процессора NVIDIA H100
Система обладает 2304 процессорными Arm-ядрами, 20 Тбайт оперативной памяти, включая 4,5 Тбайт HBM3e с общей пропускной способностью 157 Тбайт/с. За связь между суперчипами GH200 отвечают девять коммутаторов NVSwitch и интерфейс NVLink с общей пропускной способностью 57,6 Тбайт/с. Применяется система жидкостного охлаждения. AWS первой предложит системы GH200 NVL32 в составе облачной платформы NVIDIA DGX Cloud. Более того, Amazon даст возможность клиентам объединять новые системы NVIDIA в кластеры EC2 UltraClasters, получая в своё распоряжение тысячи ускорителей GH200 Superchip."
https://3dnews.ru/1096649/nvidia-i-amazon-anonsirovali-moshchneyshiy-oblachniy-iisuperkompyuter-project-ceiba
"NVIDIA GH200 NVL32 представляет собой готовую систему, выполненную в формате стандартной серверной стойки. Она объединяет 32 гибридных ускорителя NVIDIA GH200 Grace Hopper Superchip, которые представляют собой двухчиповую систему из центрального процессора с 72 ядрами Arm Neoverse и графического процессора NVIDIA H100
Система обладает 2304 процессорными Arm-ядрами, 20 Тбайт оперативной памяти, включая 4,5 Тбайт HBM3e с общей пропускной способностью 157 Тбайт/с. За связь между суперчипами GH200 отвечают девять коммутаторов NVSwitch и интерфейс NVLink с общей пропускной способностью 57,6 Тбайт/с. Применяется система жидкостного охлаждения. AWS первой предложит системы GH200 NVL32 в составе облачной платформы NVIDIA DGX Cloud. Более того, Amazon даст возможность клиентам объединять новые системы NVIDIA в кластеры EC2 UltraClasters, получая в своё распоряжение тысячи ускорителей GH200 Superchip."
https://3dnews.ru/1096649/nvidia-i-amazon-anonsirovali-moshchneyshiy-oblachniy-iisuperkompyuter-project-ceiba
3DNews - Daily Digital Digest
NVIDIA и Amazon анонсировали мощнейший облачный ИИ-суперкомпьютер Project Ceiba
Компания NVIDIA совместно с облачным провайдером Amazon Web Services (AWS) представила ряд новых совместных решений, в основном, связанных с ИИ.
🆒1
#hardware #aws #trainium #graviton
"AWS Trainium2, способен обеспечить в четыре раза более высокую производительность и в два раза более высокую энергоэффективность по сравнению с первым поколением Trainium, представленным в декабре 2020 года. Trainium2 будет доступен клиентам Amazon Web Services в инстансах EC Trn2 в кластерах из 16-ти чипов. В решении AWS EC2 UltraCluster клиенты смогут получить в своё распоряжении до 100 000 чипов Trainium2 для обучения больших языковых моделей.
Кластер из 100 000 чипов Trainium2 способен обучить большую языковую модель ИИ (LLM – large language model) с 300 миллиардами параметров всего за несколько недель. Раньше на такие задачи уходили месяцы обучения. Отметим, что параметры в парадигме LLM — это элементы модели, полученные на обучающих датасетах и, по сути, определяющие мастерство модели в решении той или иной задачи, к примеру, генерации текста или кода. 300 миллиардов параметров — это примерно в 1,75 раза больше, чем у GPT-3 от OpenAI.
Второй чип, анонсированный Amazon сегодня — Arm-процессор Graviton4. Amazon утверждает, что он обеспечивает на 30 % более высокую производительность, на 50 % больше ядер и на 75 % более высокую пропускную способность памяти, чем процессор предыдущего поколения Graviton3 (но не более современный Graviton3E), работающий применяемый в облаке Amazon EC2. Таким образом Graviton4 предложат до 96 ядер (но будут и другие конфигурации) и поддержку до 12 каналов оперативной памяти DDR5-5600.
Ещё один апгрейд по сравнению с Graviton3 состоит в том, что все физические аппаратные интерфейсы Graviton4 зашифрованы. По заявлению Amazon, это должно надёжнее защищать рабочие нагрузки клиентов по обучению ИИ и клиентские данные с повышенными требованиями к конфиденциальности.
«Graviton4 — это четвёртое поколение процессоров, которое мы выпустили всего за пять лет, и это самый мощный и энергоэффективный чип, когда-либо созданный нами для широкого спектра рабочих нагрузок, — говорится в заявлении Дэвида Брауна. — Затачивая наши чипы на реальные рабочие нагрузки, которые очень важны для клиентов, мы можем предоставить им самую передовую облачную инфраструктуру».
Graviton4 будет доступен в массивах Amazon EC2 R8g, которые уже сегодня открыты для пользователей в предварительной версии."
https://3dnews.ru/1096644/amazon-predstavila-novie-chipi-dlya-obucheniya-i-zapuska-modeley-iskusstvennogo-intellekta
"AWS Trainium2, способен обеспечить в четыре раза более высокую производительность и в два раза более высокую энергоэффективность по сравнению с первым поколением Trainium, представленным в декабре 2020 года. Trainium2 будет доступен клиентам Amazon Web Services в инстансах EC Trn2 в кластерах из 16-ти чипов. В решении AWS EC2 UltraCluster клиенты смогут получить в своё распоряжении до 100 000 чипов Trainium2 для обучения больших языковых моделей.
Кластер из 100 000 чипов Trainium2 способен обучить большую языковую модель ИИ (LLM – large language model) с 300 миллиардами параметров всего за несколько недель. Раньше на такие задачи уходили месяцы обучения. Отметим, что параметры в парадигме LLM — это элементы модели, полученные на обучающих датасетах и, по сути, определяющие мастерство модели в решении той или иной задачи, к примеру, генерации текста или кода. 300 миллиардов параметров — это примерно в 1,75 раза больше, чем у GPT-3 от OpenAI.
Второй чип, анонсированный Amazon сегодня — Arm-процессор Graviton4. Amazon утверждает, что он обеспечивает на 30 % более высокую производительность, на 50 % больше ядер и на 75 % более высокую пропускную способность памяти, чем процессор предыдущего поколения Graviton3 (но не более современный Graviton3E), работающий применяемый в облаке Amazon EC2. Таким образом Graviton4 предложат до 96 ядер (но будут и другие конфигурации) и поддержку до 12 каналов оперативной памяти DDR5-5600.
Ещё один апгрейд по сравнению с Graviton3 состоит в том, что все физические аппаратные интерфейсы Graviton4 зашифрованы. По заявлению Amazon, это должно надёжнее защищать рабочие нагрузки клиентов по обучению ИИ и клиентские данные с повышенными требованиями к конфиденциальности.
«Graviton4 — это четвёртое поколение процессоров, которое мы выпустили всего за пять лет, и это самый мощный и энергоэффективный чип, когда-либо созданный нами для широкого спектра рабочих нагрузок, — говорится в заявлении Дэвида Брауна. — Затачивая наши чипы на реальные рабочие нагрузки, которые очень важны для клиентов, мы можем предоставить им самую передовую облачную инфраструктуру».
Graviton4 будет доступен в массивах Amazon EC2 R8g, которые уже сегодня открыты для пользователей в предварительной версии."
https://3dnews.ru/1096644/amazon-predstavila-novie-chipi-dlya-obucheniya-i-zapuska-modeley-iskusstvennogo-intellekta
3DNews - Daily Digital Digest
Amazon представила мощные ускорители Trainium2 для обучения больших ИИ-моделей, а также Arm-процессоры Graviton4
Рост спроса на генеративный искусственный интеллект, который зачастую обучается и запускается на специализированных ускорителях на графических процессорах (GPU), во всём мире наблюдается дефицит таких ускорителей.
⚡1
#deepmind #gnome #materials #gnn
"Алгоритм, получивший название GNoME, был обучен на основе данных из проекта «Материалы» — бесплатной базы данных, содержащей 150 000 известных материалов, которую курирует Перссон. Используя эту информацию, система искусственного интеллекта предложила проекты материалов, содержащие 2,2 миллиона новых кристаллов, из которых 380 000 были признаны стабильными. Они не разлагаются и не взрываются, а значит, наиболее подходят для синтеза в лаборатории, что расширило диапазон известных стабильных материалов почти в 10 раз. В статье, опубликованной сегодня в Nature, авторы пишут, что в этой расширенной базе данных может скрываться следующий инновационный твердотельный электролит, или материал для солнечных батарей, или высокотемпературный сверхпроводник.
GNoME использует подход, называемый активным обучением. Сначала графовая нейронная сеть (GNN) использует базу данных материалов для изучения закономерностей в стабильных структурах и выяснения того, как минимизировать энергию атомных связей в новых структурах. Используя весь диапазон периодической таблицы Менделеева, она выдает тысячи потенциально стабильных кандидатов в материалы. Следующий шаг — их проверка и корректировка с помощью метода квантовой механики, называемого теорией функционала плотности, или DFT. На следующем этапе эти уточнённые результаты снова подключаются к обучающим датасетам, и процесс повторяется."
https://3dnews.ru/1096709/iskusstvenniy-intellekt-google-deepmind-izobryol-380000-novih-materialov
"Алгоритм, получивший название GNoME, был обучен на основе данных из проекта «Материалы» — бесплатной базы данных, содержащей 150 000 известных материалов, которую курирует Перссон. Используя эту информацию, система искусственного интеллекта предложила проекты материалов, содержащие 2,2 миллиона новых кристаллов, из которых 380 000 были признаны стабильными. Они не разлагаются и не взрываются, а значит, наиболее подходят для синтеза в лаборатории, что расширило диапазон известных стабильных материалов почти в 10 раз. В статье, опубликованной сегодня в Nature, авторы пишут, что в этой расширенной базе данных может скрываться следующий инновационный твердотельный электролит, или материал для солнечных батарей, или высокотемпературный сверхпроводник.
GNoME использует подход, называемый активным обучением. Сначала графовая нейронная сеть (GNN) использует базу данных материалов для изучения закономерностей в стабильных структурах и выяснения того, как минимизировать энергию атомных связей в новых структурах. Используя весь диапазон периодической таблицы Менделеева, она выдает тысячи потенциально стабильных кандидатов в материалы. Следующий шаг — их проверка и корректировка с помощью метода квантовой механики, называемого теорией функционала плотности, или DFT. На следующем этапе эти уточнённые результаты снова подключаются к обучающим датасетам, и процесс повторяется."
https://3dnews.ru/1096709/iskusstvenniy-intellekt-google-deepmind-izobryol-380000-novih-materialov
#timeseries #dsp #fourier #fft #psd
"After we have transformed a signal to the frequency-domain, we can extract features from each of these transformed signals and use these features as input in standard classifiers like Random Forest, Logistic Regression, Gradient Boosting or Support Vector Machines.
Which features can we extract from these transformations? A good first step is the value of the frequencies at which oscillations occur and the corresponding amplitudes. In other words; the x and y-position of the peaks in the frequency spectrum."
https://ataspinar.com/2018/04/04/machine-learning-with-signal-processing-techniques/
"After we have transformed a signal to the frequency-domain, we can extract features from each of these transformed signals and use these features as input in standard classifiers like Random Forest, Logistic Regression, Gradient Boosting or Support Vector Machines.
Which features can we extract from these transformations? A good first step is the value of the frequencies at which oscillations occur and the corresponding amplitudes. In other words; the x and y-position of the peaks in the frequency spectrum."
https://ataspinar.com/2018/04/04/machine-learning-with-signal-processing-techniques/
#timeseries #wavelets #scaleogram #dwt #cwt
В комментах сравнительная таблица точностей разных вейвлетов на нескольких ML-задачах.
https://ataspinar.com/2018/12/21/a-guide-for-using-the-wavelet-transform-in-machine-learning/
В комментах сравнительная таблица точностей разных вейвлетов на нескольких ML-задачах.
https://ataspinar.com/2018/12/21/a-guide-for-using-the-wavelet-transform-in-machine-learning/
#gpt #hardware #imbue
"Независимая исследовательская ИИ-компания Imbue и Dell Technologies объявили о заключении соглашения по созданию нового высокопроизводительного вычислительного кластера на основе серверов PowerEdge для обучения базовых моделей. Проект оценивается в $150 млн.
Imbue разрабатывает собственные базовые ИИ-модели, оптимизированные специально для рассуждений: они способны при необходимости запрашивать дополнительную информацию, анализировать и критиковать свои собственные результаты, а также разбивать сложную задачу на несколько более простых для повышения эффективности выполнения."
https://servernews.ru/1096726
"Независимая исследовательская ИИ-компания Imbue и Dell Technologies объявили о заключении соглашения по созданию нового высокопроизводительного вычислительного кластера на основе серверов PowerEdge для обучения базовых моделей. Проект оценивается в $150 млн.
Imbue разрабатывает собственные базовые ИИ-модели, оптимизированные специально для рассуждений: они способны при необходимости запрашивать дополнительную информацию, анализировать и критиковать свои собственные результаты, а также разбивать сложную задачу на несколько более простых для повышения эффективности выполнения."
https://servernews.ru/1096726
ServerNews - все из мира больших мощностей
Dell построит ИИ-кластер из 10 тыс. NVIDIA H100 для компании Imbue
Независимая исследовательская ИИ-компания Imbue и Dell Technologies объявили о заключении соглашения по созданию нового высокопроизводительного вычислительного кластера на основе серверов PowerEdge для обучения базовых моделей. Проект оценивается в $150 млн.
⚡1
#tesla
А может кто-нибудь мне объяснить, почему люди хотят за большие деньги купить уродски выглядящие автомобили?
https://3dnews.ru/1096741/segodnya-tesla-provedyot-prezentatsiyu-cybertruck-budut-zapushcheni-prodagi-raskriti-harakteristiki-i-tseni
А может кто-нибудь мне объяснить, почему люди хотят за большие деньги купить уродски выглядящие автомобили?
https://3dnews.ru/1096741/segodnya-tesla-provedyot-prezentatsiyu-cybertruck-budut-zapushcheni-prodagi-raskriti-harakteristiki-i-tseni
3DNews - Daily Digital Digest
Сегодня Tesla проведёт презентацию Cybertruck — будут запущены продажи, раскрыты характеристики и цены
Компания Tesla сегодня проведёт мероприятие, посвящённое долгожданному началу поставок футуристического электрического пикапа Cybertruck.