#series #cybervillage
У кого есть подписка Яндекс.Плюс, рекомендую ) Трейлер от энтузиастов видеомонтажа стал мини-сериалом.
https://www.kinopoisk.ru/series/5019944/
У кого есть подписка Яндекс.Плюс, рекомендую ) Трейлер от энтузиастов видеомонтажа стал мини-сериалом.
https://www.kinopoisk.ru/series/5019944/
Кинопоиск
Кибердеревня, 2023
📺 Смотрите онлайн сериал «Кибердеревня» (2023) на Кинопоиске все серии, 1-2 сезоны. Фермер и робот бегут из космической тюрьмы навстречу приключениям. Захватывающий сай-фай с русской душой
Forwarded from Техножрица 👩💻👩🏫👩🔧
Одна из моих главных жизненных ценностей - интеллектуальная честность. Поэтому какое-то время назад я провела достаточно много времени, читая материалы про различные когнитивные искажения.
Ну, а главное когнитивное искажение, которое меня волнует при занятиях научными исследованиями - это, конечно же, ошибка подтверждения. В этом контексте она возникает очень часто, и чем дольше я занимаюсь исследованиями в области машинного обучения, тем чаще её замечаю.
Одно из самых заметных проявлений искажения заключается в следующем: как правило, исследователи тратят несравнимо больше времени и усилий на то, чтобы выдавить мельчайшие капельки целевой метрики из своего метода, чем на то, чтобы корректно выбрать и хорошо настроить бейзлайн. И немудрено: ведь то, пройдет ли статья ревью или нет, зависит от того, насколько хороший результат покажет новый метод, а не старый. При использовании новых датасетов, бейзлайны на которых еще неизвестны, особенно легко сделать бейзлайн плохим таким образом, чтобы ревьюеры этого не заметили. При чем иногда это происходит не совсем сознательно, просто от того, что человек не уделяет времени тому, чтобы подобрать своему бейзлайну подходящие гиперпараметры и сделать сравнение честным по всем аспектам.
Из-за мыслей об этом, в последние месяцы я довольно сильно озаботилась бейзлайнами и стала уделять больше времени их продумыванию, настройке и пиханию везде, где мне хватает на это времени и возможности. Это заметно, например, по статье Topological Data Analysis for Speech Processing (см. также пост https://news.1rj.ru/str/tech_priestess/755 ), и по еще одной про NLP домен, которую мы пока что не опубликовали из-за периода анонимности.
В первой статье я предложила добавить такой бейзлайн, в котором информация собиралась бы со всех слоев модели HuBERT не в виде топологических фичей (которые были нашим основным методом), а в виде какой-нибудь более простой аггрегации эмбеддингов с каждого слоя (коллеги в итоге взяли эмбеддинг первого токена и пулинг по эмбеддингам в качестве таких аггрегаций). Целью этого было проверить, действительно ли важную информацию несут именно топологические фичи, или же для хорошего результата достаточно просто пропустить информацию с промежуточных представлений модели. Ответ оказался неоднозначным, потому что для одних датасетов хорошо работало одно, а для других - другое (см. таблицу 1). 🥴 Кроме того, я просила коллегу попробовать потюнить HuBERT по-другому (полностью, а не только последний слой), но это, как ни странно, оказалось хуже других методов и потому не вошло в финальную таблицу.
Ну а во второй, анонимной, из-за того, что я главный автор, я уж совсем развязала себе руки и наплодила целую россыпь бейзлайнов, один из которых натюнила так, что мы его потом сами же и не смогли побить во многих подзадачах (думаю, вероятность того, что статью отвергнут, процентов 90🥴 ).
А еще я против того, чтобы сравнивать слишком много (порядка нескольких десятков или, тем более, сотен) вариаций своего метода или фичей на out of domain множествах и потом использовать в статье именно те фичи или тот метод, который хорошо выступил на этом OOD. Я думаю, что если так делать, то OOD множество как бы превращается в множество валидации (так как если ты выбираешь из большого множества методов один, то это тоже получется как будто ты затюнил на этом множестве гиперпараметр). Несколько вариаций своего метода я по такому принципу сравнить ещё могу, но несколько десятков уже считаю подгонкой.
Иногда мне, однако, кажется, что я задалбываю окружающих своими заебомбами по этим поводам.
Сколько времени на самом деле разумно тратить на настройку бейзлайна?🤷♂️ Сколько раз можно проверять точность методов на test или OOD множествах, прежде чем эти множества превратятся в valid и прекратят реально отображать обобщаемость наших решений? 🤷♂️
В общем, где грань разумного, за которой кончается реальная забота об объективности и начинается паранойя? 🥴
#рассуждения
Ну, а главное когнитивное искажение, которое меня волнует при занятиях научными исследованиями - это, конечно же, ошибка подтверждения. В этом контексте она возникает очень часто, и чем дольше я занимаюсь исследованиями в области машинного обучения, тем чаще её замечаю.
Одно из самых заметных проявлений искажения заключается в следующем: как правило, исследователи тратят несравнимо больше времени и усилий на то, чтобы выдавить мельчайшие капельки целевой метрики из своего метода, чем на то, чтобы корректно выбрать и хорошо настроить бейзлайн. И немудрено: ведь то, пройдет ли статья ревью или нет, зависит от того, насколько хороший результат покажет новый метод, а не старый. При использовании новых датасетов, бейзлайны на которых еще неизвестны, особенно легко сделать бейзлайн плохим таким образом, чтобы ревьюеры этого не заметили. При чем иногда это происходит не совсем сознательно, просто от того, что человек не уделяет времени тому, чтобы подобрать своему бейзлайну подходящие гиперпараметры и сделать сравнение честным по всем аспектам.
Из-за мыслей об этом, в последние месяцы я довольно сильно озаботилась бейзлайнами и стала уделять больше времени их продумыванию, настройке и пиханию везде, где мне хватает на это времени и возможности. Это заметно, например, по статье Topological Data Analysis for Speech Processing (см. также пост https://news.1rj.ru/str/tech_priestess/755 ), и по еще одной про NLP домен, которую мы пока что не опубликовали из-за периода анонимности.
В первой статье я предложила добавить такой бейзлайн, в котором информация собиралась бы со всех слоев модели HuBERT не в виде топологических фичей (которые были нашим основным методом), а в виде какой-нибудь более простой аггрегации эмбеддингов с каждого слоя (коллеги в итоге взяли эмбеддинг первого токена и пулинг по эмбеддингам в качестве таких аггрегаций). Целью этого было проверить, действительно ли важную информацию несут именно топологические фичи, или же для хорошего результата достаточно просто пропустить информацию с промежуточных представлений модели. Ответ оказался неоднозначным, потому что для одних датасетов хорошо работало одно, а для других - другое (см. таблицу 1). 🥴 Кроме того, я просила коллегу попробовать потюнить HuBERT по-другому (полностью, а не только последний слой), но это, как ни странно, оказалось хуже других методов и потому не вошло в финальную таблицу.
Ну а во второй, анонимной, из-за того, что я главный автор, я уж совсем развязала себе руки и наплодила целую россыпь бейзлайнов, один из которых натюнила так, что мы его потом сами же и не смогли побить во многих подзадачах (думаю, вероятность того, что статью отвергнут, процентов 90
А еще я против того, чтобы сравнивать слишком много (порядка нескольких десятков или, тем более, сотен) вариаций своего метода или фичей на out of domain множествах и потом использовать в статье именно те фичи или тот метод, который хорошо выступил на этом OOD. Я думаю, что если так делать, то OOD множество как бы превращается в множество валидации (так как если ты выбираешь из большого множества методов один, то это тоже получется как будто ты затюнил на этом множестве гиперпараметр). Несколько вариаций своего метода я по такому принципу сравнить ещё могу, но несколько десятков уже считаю подгонкой.
Иногда мне, однако, кажется, что я задалбываю окружающих своими заебомбами по этим поводам.
Сколько времени на самом деле разумно тратить на настройку бейзлайна?
В общем, где грань разумного, за которой кончается реальная забота об объективности и начинается паранойя? 🥴
#рассуждения
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#trading #hft #amd #hardware #fpga
Компания AMD анонсировала специализированный ускоритель Alveo UL3524 на базе FPGA, ориентированный на финтех-сферу. Решение, как утверждается, позволяет трейдерам, хедж-фондам, брокерским конторам и биржам совершать операции с задержками наносекундного уровня.
В основу новинки положен чип FPGA Virtex UltraScale+, выполненный по 16-нм технологии. Конфигурация включает 64 трансивера с ультранизкой задержкой, 780 тыс. LUT и 1680 DSP.
Отмечается, что Alveo UL3524 обеспечивает в семь раз меньшую задержку по сравнению с FPGA предыдущего поколения. В частности, инновационная архитектура трансиверов с оптимизированными сетевыми ядрами позволяет добиться показателя менее 3 нс.
https://servernews.ru/1093861
Компания AMD анонсировала специализированный ускоритель Alveo UL3524 на базе FPGA, ориентированный на финтех-сферу. Решение, как утверждается, позволяет трейдерам, хедж-фондам, брокерским конторам и биржам совершать операции с задержками наносекундного уровня.
В основу новинки положен чип FPGA Virtex UltraScale+, выполненный по 16-нм технологии. Конфигурация включает 64 трансивера с ультранизкой задержкой, 780 тыс. LUT и 1680 DSP.
Отмечается, что Alveo UL3524 обеспечивает в семь раз меньшую задержку по сравнению с FPGA предыдущего поколения. В частности, инновационная архитектура трансиверов с оптимизированными сетевыми ядрами позволяет добиться показателя менее 3 нс.
https://servernews.ru/1093861
ServerNews - все из мира больших мощностей
AMD представила ускоритель Alveo UL3524 для брокерских и биржевых приложений
Компания AMD анонсировала специализированный ускоритель Alveo UL3524 на базе FPGA, ориентированный на финтех-сферу. Решение, как утверждается, позволяет трейдерам, хедж-фондам, брокерским конторам и биржам совершать операции с задержками наносекундного уровня.
#poetry #dragons
"так и быть, расскажу, и на этом давай закончим,
потому что любые слова не надёжней рассветной сини.
...жил да был один мальчик, мечтавший убить дракона,
потому что о прочем мечтать не хватало силы.
он искал зверюгу в домах,
по полям да весям,
по лесам и оврагам, по гулким пустым пещерам.
а дракон приходил к нему в сны и смеялся весело,
желтоватые зубы щерил.
а дракон приходил ночами, меняя облик,
как иные меняют любовниц и убеждения.
приходил то чешуйчатым гадом, то сизым облаком,
приходил светом солнца и тонкой тенью.
а дракон говорил,
и был вкрадчив голос,
говорил, как земля, высыхая, шипит, замерзая стонет,
как поёт, прорастая, пырей, как лепечет колос,
как дорога в нутре хранит девятьсот историй.
говорил, что ручьи не бегут, а уходят в почву,
что любовь – угольки: вроде греет, а тронешь – жжётся,
говорил, как звенят по весне на деревьях почки,
что в постели спать жутко, на камне – жёстко.
что осенние звёзды летят как листва,
и горят гнилушками,
что огромное горе скрежещет в груди металлом.
вот о чём дракон говорил.
только мальчик его не слушал,
а с упорством искал дракона в нездешних далях.
эта глупая сказка диктует свои законы:
отмахнись от неё, отгони, словно это мошка.
жил да был один мальчик, мечтавший убить дракона,
и искавший дракона везде, где нельзя и можно.
он искал по погостам, в подвалах, в хлевах, на крышах,
на местах прошлых битв и в гулком закатном зареве.
а пока он искал, проросли из лопаток крылья,
чешуя проросла на шее и под глазами."
"Long ago in a time of tales when
Mighty dragons ruled the sky
In his castle a knight so wealthy
Dwelled in the woods by the riverside
Filled with greed he dreamt of the treasures
That the dragons were said to own
So one day he went out to kill them
Claim all the riches for his own
Dragonslayer - Raise your sword up high
Dragonslayer - Blood is spilled tonight
Soon he had slain many a dragon
Just a single one of them left
Far beyond all imaginations
Were the treasures that he possessed
No one had ever seen this monster
The most dangerous beast of them all
And the knight in his shiny armour
Headed for this last dragon to fall
To a cave in the highest mountains
He then rode with an evil grin
In a fierce and long lasting battle
Neither the dragon nor he could win
His eyes then caught a glimpse of the treasure
Fascinated he turned his head
In this moment the dragon hit him
Bleeding his body dropped down dead
Dragonslayer - You are gonna die
Dragonslayer - Your blood is spilled tonight"
https://www.youtube.com/watch?v=_V5q11x6q4g
"так и быть, расскажу, и на этом давай закончим,
потому что любые слова не надёжней рассветной сини.
...жил да был один мальчик, мечтавший убить дракона,
потому что о прочем мечтать не хватало силы.
он искал зверюгу в домах,
по полям да весям,
по лесам и оврагам, по гулким пустым пещерам.
а дракон приходил к нему в сны и смеялся весело,
желтоватые зубы щерил.
а дракон приходил ночами, меняя облик,
как иные меняют любовниц и убеждения.
приходил то чешуйчатым гадом, то сизым облаком,
приходил светом солнца и тонкой тенью.
а дракон говорил,
и был вкрадчив голос,
говорил, как земля, высыхая, шипит, замерзая стонет,
как поёт, прорастая, пырей, как лепечет колос,
как дорога в нутре хранит девятьсот историй.
говорил, что ручьи не бегут, а уходят в почву,
что любовь – угольки: вроде греет, а тронешь – жжётся,
говорил, как звенят по весне на деревьях почки,
что в постели спать жутко, на камне – жёстко.
что осенние звёзды летят как листва,
и горят гнилушками,
что огромное горе скрежещет в груди металлом.
вот о чём дракон говорил.
только мальчик его не слушал,
а с упорством искал дракона в нездешних далях.
эта глупая сказка диктует свои законы:
отмахнись от неё, отгони, словно это мошка.
жил да был один мальчик, мечтавший убить дракона,
и искавший дракона везде, где нельзя и можно.
он искал по погостам, в подвалах, в хлевах, на крышах,
на местах прошлых битв и в гулком закатном зареве.
а пока он искал, проросли из лопаток крылья,
чешуя проросла на шее и под глазами."
"Long ago in a time of tales when
Mighty dragons ruled the sky
In his castle a knight so wealthy
Dwelled in the woods by the riverside
Filled with greed he dreamt of the treasures
That the dragons were said to own
So one day he went out to kill them
Claim all the riches for his own
Dragonslayer - Raise your sword up high
Dragonslayer - Blood is spilled tonight
Soon he had slain many a dragon
Just a single one of them left
Far beyond all imaginations
Were the treasures that he possessed
No one had ever seen this monster
The most dangerous beast of them all
And the knight in his shiny armour
Headed for this last dragon to fall
To a cave in the highest mountains
He then rode with an evil grin
In a fierce and long lasting battle
Neither the dragon nor he could win
His eyes then caught a glimpse of the treasure
Fascinated he turned his head
In this moment the dragon hit him
Bleeding his body dropped down dead
Dragonslayer - You are gonna die
Dragonslayer - Your blood is spilled tonight"
https://www.youtube.com/watch?v=_V5q11x6q4g
YouTube
Circle of Grief - The Tale of a Dragonslayer
Circle of Grief - The Tale of a Dragonslyaer - Album "Into the Battle" 2001
Long ago in a time of tales when
Mighty dragons ruled the sky
In his castle a knight so wealthy
Dwelled in the woods by the riverside
Filled with greed he dreamt of the treasures…
Long ago in a time of tales when
Mighty dragons ruled the sky
In his castle a knight so wealthy
Dwelled in the woods by the riverside
Filled with greed he dreamt of the treasures…
#trading #erema
Немного новостей по торговому боту и моделям для него. Выяснилось, что у меня неправильно и плохо делалась поинструментная нормализация, это не позволило обучать боевые модельки и послужило поводом перегенерации фичей. Ну и последнее, конечно, триггернуло реализацию всех накопившихся идей и исправление всех обнаруженных недочётов, которое я планировал вообще-то на Фазу 2.
В результате посл. месяца работы у меня теперь есть:
правильно нормализованные данные (а цены, объёмы, открытые интересы надо нормализовать по-разному)
статы по подгруппам и категориальным факторам
статы над взвешиванием
статы над вейвлетами
статы над отношениями, разностями
статы над скользящими окнами от пандас
робастные подмножества
новый блок рыночных профилей
новый детальный блок "просадочных" фичей
мультиокна (время, сделки, валютные объёмы, имбалансовые)
окна инструмент vs рынок
живые корреляции и фичи по "наиболее коррелированному с данным инструменту"
более экономное хранение признаков, перевод вычисления их части после открытия файлов данных
добавление нового признака "красивости/круглости" цен, по рекомендациям скальперских видосов
допфичи, связанные со спецификой фьючерсов (базовый тикер, время до экспирации)
новые фичи для детекции mean reversion
фичи по динамическим интервалам (от макс и мин цены по инструменту за тек. сессию)
В процессе реализации:
фичи по инструменту и рынку за прошлый день
посекторные фичи биржи за прошлый день
фичи netflow2 за прошлый день
почасовые фичи futoi
улучшение фичей по OI и TotalBids/TotalAsks (повышение их статуса до интервальных)
то же по "стаканным" фичам, + некоторые доппризнаки опять же по советам доменных экспертов
динамические таргеты, больше базовых статистик, скользящие статы от предыдущих таргетов как допфакторы, triple barrier targets
ranked targets
Умом я понимаю, что так глубоко закапываться сразу не надо, надо итерироваться побыстрее, выводить в работу продукт пусть и более сырой, зато поскорее, ведь я видел следы предсказуемости уже и с тем, что было в Фазе 0. Но ничего поделать с собой не могу, слишком долго я размышлял о внедрении всех этих плюшек.
О производительности и требуемых мощностях. По одному окну признаков-кандидатов рассчитывается уже более 10 тысяч, в 1 поток расчёт идет полминуты (это лишь 1 момент на бирже!). А таких окон планируется десятки. И в день таких моментов миллионы. Надо сказать, что с 128 Гб RAM я признаки даже из Фазы 0 проекта не смог промоделировать более 10 торговых дней. А ведь это я пока работаю только с упрощённым и неполным набором данных. Соответственно, дальше работать можно только в парадигме bigdata с кластерными вычислениями и горизонтальным масштабированием.
Для кластерных расчётов я выбрал Dask, и мне ещё предстоит обеспечить совместимость с ним моих существующих ML конвейеров, да и грядущего отборщика признаков Diogenes. Также в октябре-ноябре, видимо, предстоят облачные расходы в сотни и тысячи долларов, что уже начинает бить по бюджету, т.к. последние полгода я не отвлекался на сторонние подработки. Если к 1 ноября получится обучить первые модельки в Dask на всех этих новых признаках, это уже можно будет считать успехом )
Кстати, раскрою секрет, применение моего полусырого отборщика признаков в Фазе 0 значительно улучшило OOS ML-метрики, что очень вдохновляет.
В целом, с одной стороны я недоволен этим годом, т.к. по традиции не завершил ни одного из своих проектов, притом начав много новых, с другой стороны, я сделал огромную работу и существенно улучшил инструменты в своём ML-арсенале, воплотив в жизнь много старых интересных идей. Ну а что ещё нам остаётся, кроме как идти к намеченным целям, пусть и маленькими шажками, порой путаясь, блуждая и возвращаясь, но идти?
Немного новостей по торговому боту и моделям для него. Выяснилось, что у меня неправильно и плохо делалась поинструментная нормализация, это не позволило обучать боевые модельки и послужило поводом перегенерации фичей. Ну и последнее, конечно, триггернуло реализацию всех накопившихся идей и исправление всех обнаруженных недочётов, которое я планировал вообще-то на Фазу 2.
В результате посл. месяца работы у меня теперь есть:
правильно нормализованные данные (а цены, объёмы, открытые интересы надо нормализовать по-разному)
статы по подгруппам и категориальным факторам
статы над взвешиванием
статы над вейвлетами
статы над отношениями, разностями
статы над скользящими окнами от пандас
робастные подмножества
новый блок рыночных профилей
новый детальный блок "просадочных" фичей
мультиокна (время, сделки, валютные объёмы, имбалансовые)
окна инструмент vs рынок
живые корреляции и фичи по "наиболее коррелированному с данным инструменту"
более экономное хранение признаков, перевод вычисления их части после открытия файлов данных
добавление нового признака "красивости/круглости" цен, по рекомендациям скальперских видосов
допфичи, связанные со спецификой фьючерсов (базовый тикер, время до экспирации)
новые фичи для детекции mean reversion
фичи по динамическим интервалам (от макс и мин цены по инструменту за тек. сессию)
В процессе реализации:
фичи по инструменту и рынку за прошлый день
посекторные фичи биржи за прошлый день
фичи netflow2 за прошлый день
почасовые фичи futoi
улучшение фичей по OI и TotalBids/TotalAsks (повышение их статуса до интервальных)
то же по "стаканным" фичам, + некоторые доппризнаки опять же по советам доменных экспертов
динамические таргеты, больше базовых статистик, скользящие статы от предыдущих таргетов как допфакторы, triple barrier targets
ranked targets
Умом я понимаю, что так глубоко закапываться сразу не надо, надо итерироваться побыстрее, выводить в работу продукт пусть и более сырой, зато поскорее, ведь я видел следы предсказуемости уже и с тем, что было в Фазе 0. Но ничего поделать с собой не могу, слишком долго я размышлял о внедрении всех этих плюшек.
О производительности и требуемых мощностях. По одному окну признаков-кандидатов рассчитывается уже более 10 тысяч, в 1 поток расчёт идет полминуты (это лишь 1 момент на бирже!). А таких окон планируется десятки. И в день таких моментов миллионы. Надо сказать, что с 128 Гб RAM я признаки даже из Фазы 0 проекта не смог промоделировать более 10 торговых дней. А ведь это я пока работаю только с упрощённым и неполным набором данных. Соответственно, дальше работать можно только в парадигме bigdata с кластерными вычислениями и горизонтальным масштабированием.
Для кластерных расчётов я выбрал Dask, и мне ещё предстоит обеспечить совместимость с ним моих существующих ML конвейеров, да и грядущего отборщика признаков Diogenes. Также в октябре-ноябре, видимо, предстоят облачные расходы в сотни и тысячи долларов, что уже начинает бить по бюджету, т.к. последние полгода я не отвлекался на сторонние подработки. Если к 1 ноября получится обучить первые модельки в Dask на всех этих новых признаках, это уже можно будет считать успехом )
Кстати, раскрою секрет, применение моего полусырого отборщика признаков в Фазе 0 значительно улучшило OOS ML-метрики, что очень вдохновляет.
В целом, с одной стороны я недоволен этим годом, т.к. по традиции не завершил ни одного из своих проектов, притом начав много новых, с другой стороны, я сделал огромную работу и существенно улучшил инструменты в своём ML-арсенале, воплотив в жизнь много старых интересных идей. Ну а что ещё нам остаётся, кроме как идти к намеченным целям, пусть и маленькими шажками, порой путаясь, блуждая и возвращаясь, но идти?
#law #twitter
Настоящая Гадде.
"Судья Кэтлин Сент-Джуд Маккормик (Kathaleen Saint Jude McCormick) вынесла решение в пользу бывшего генерального директора Twitter Парага Агравала (Parag Agrawal) и бывшего главного юридического советника Виджаи Гадде (Vijaya Gadde). Судья пришла к выводу, что компания Илона Маска (Elon Musk) нарушила обязательства по возмещению юридических расходов, связанных с их работой в компании.
Как только Маск стал владельцем компании, он уволил Агравала и других ключевых руководителей. Это произошло вскоре после того, как Twitter подала иск к Маску за попытку отказаться от сделки по приобретению компании за $44 млрд.
В апреле Агравал и Гадде подали иск против X, утверждая, что компания не оплатила их юридические счета, в том числе за выступление Гадде перед Комитетом Палаты представителей США по надзору и реформам (HCOR). Как сообщает Bloomberg, X оплатила из долга только около $600 тыс. Юристы компании заявили, что руководители X испытали «шок от ценника», увидев чрезмерно высокий счет на $1,1 млн от адвокатов Гадде.
Судья Маккормик признала, что $1,1 млн — это значительная сумма, но, тем не менее, приняла решение в пользу бывших руководителей Twitter. «Я ознакомилась с указанной суммой. Она весьма существенная, но является обоснованной», — заявила Маккормик."
https://3dnews.ru/1093978/sud-obyazal-kompaniyu-x-viplatit-11-mln-bivshim-rukovoditelyam-twitter
Настоящая Гадде.
"Судья Кэтлин Сент-Джуд Маккормик (Kathaleen Saint Jude McCormick) вынесла решение в пользу бывшего генерального директора Twitter Парага Агравала (Parag Agrawal) и бывшего главного юридического советника Виджаи Гадде (Vijaya Gadde). Судья пришла к выводу, что компания Илона Маска (Elon Musk) нарушила обязательства по возмещению юридических расходов, связанных с их работой в компании.
Как только Маск стал владельцем компании, он уволил Агравала и других ключевых руководителей. Это произошло вскоре после того, как Twitter подала иск к Маску за попытку отказаться от сделки по приобретению компании за $44 млрд.
В апреле Агравал и Гадде подали иск против X, утверждая, что компания не оплатила их юридические счета, в том числе за выступление Гадде перед Комитетом Палаты представителей США по надзору и реформам (HCOR). Как сообщает Bloomberg, X оплатила из долга только около $600 тыс. Юристы компании заявили, что руководители X испытали «шок от ценника», увидев чрезмерно высокий счет на $1,1 млн от адвокатов Гадде.
Судья Маккормик признала, что $1,1 млн — это значительная сумма, но, тем не менее, приняла решение в пользу бывших руководителей Twitter. «Я ознакомилась с указанной суммой. Она весьма существенная, но является обоснованной», — заявила Маккормик."
https://3dnews.ru/1093978/sud-obyazal-kompaniyu-x-viplatit-11-mln-bivshim-rukovoditelyam-twitter
3DNews - Daily Digital Digest
Бывшие руководители Twitter отсудили у X компенсацию в $1,1 млн
Компания X, ранее известная как Twitter, обязана выплатить $1,1 млн в качестве юридических издержек бывшим руководителям социальной сети Twitter.
Forwarded from V-Stock Школа трейдинга Вадима Федосенко
Написал статейку на смартлаб про синтетику доллара и как ее можно схлопнуть: https://smart-lab.ru/company/alorbroker/blog/947284.php
smart-lab.ru
Как грамотно заработать на долларе по 100. Арбитражный метод с опционным хеджем.
Доллар по 100 сейчас не обсуждает только ленивый. Но одно дело обсуждать, а другое извлечь из этого прибыль грамотным
#trading #moex #competitions
ЛУЧШИЙ ЧАСТНЫЙ ИНВЕСТОР 2023
"Конкурс инвесторов от Московской биржи. Призы для новичков и опытных трейдеров — розыгрыши каждые две недели, всего более 600 призов и грандиозный финал с призами до 1 млн рублей
Призовой фонд более 27M руб.
Срок проведения конкурса: с 05 октября по 21 декабря включительно. Организатор конкурса: ПАО Московская биржа."
https://investor.moex.com/
ЛУЧШИЙ ЧАСТНЫЙ ИНВЕСТОР 2023
"Конкурс инвесторов от Московской биржи. Призы для новичков и опытных трейдеров — розыгрыши каждые две недели, всего более 600 призов и грандиозный финал с призами до 1 млн рублей
Призовой фонд более 27M руб.
Срок проведения конкурса: с 05 октября по 21 декабря включительно. Организатор конкурса: ПАО Московская биржа."
https://investor.moex.com/
#hardware #clouds
"Британская компания NexGen Cloud, по сообщению ресурса Datacenter Dynamics, намерена инвестировать $1 млрд в проект AI Supercloud: речь идёт о развёртывании так называемого ИИ-супероблака в Европе. Создание платформы начнётся в текущем месяце. NexGen Cloud уже оформила заказы на оборудование на сумму приблизительно $576 млн. В полностью завершённом виде система объединит 20 тыс. ускорителей NVIDIA H100.
Завершение создания платформы запланировано на июнь 2024 года. Доступ к системе будет предоставляться через гиперстек NexGen Cloud. Ресурсы AI Supercloud будут доступны предприятиям и государственным заказчикам, которые должны оставаться в европейской юрисдикции. Предполагается, что супероблако позволит клиентам решать ресурсоёмкие задачи ИИ, оставаясь конкурентоспособными на глобальном рынке."
https://servernews.ru/1094063
"Британская компания NexGen Cloud, по сообщению ресурса Datacenter Dynamics, намерена инвестировать $1 млрд в проект AI Supercloud: речь идёт о развёртывании так называемого ИИ-супероблака в Европе. Создание платформы начнётся в текущем месяце. NexGen Cloud уже оформила заказы на оборудование на сумму приблизительно $576 млн. В полностью завершённом виде система объединит 20 тыс. ускорителей NVIDIA H100.
Завершение создания платформы запланировано на июнь 2024 года. Доступ к системе будет предоставляться через гиперстек NexGen Cloud. Ресурсы AI Supercloud будут доступны предприятиям и государственным заказчикам, которые должны оставаться в европейской юрисдикции. Предполагается, что супероблако позволит клиентам решать ресурсоёмкие задачи ИИ, оставаясь конкурентоспособными на глобальном рынке."
https://servernews.ru/1094063
ServerNews - все из мира больших мощностей
Британская NexGen Cloud вложит $1 млрд в создание европейского ИИ-супероблака из 20 тыс. NVIDIA H100
Британская компания NexGen Cloud, по сообщению ресурса Datacenter Dynamics, намерена инвестировать $1 млрд в проект AI Supercloud: речь идёт о развёртывании так называемого ИИ-супероблака в Европе. Создание платформы начнётся в текущем месяце. NexGen Cloud…
Forwarded from Telegram Contests
Prize fund: $40,000 – from which the 1st place winner will receive $15,000 if any submissions qualify for 1st place.
Deadline: 23:59 on October 15th (Dubai time)
Who can participate: Everyone
Results: October 29th, 2023
Telegram is hosting a competition for ML engineers to identify programming and markup languages in code snippets.
The Task: implement a library that detects the programming and markup language of code snippets from message text. You can use any publicly available data to train your solution.
Details: https://contest.com/docs/ML-Competition-2023.
@ContestBot will begin accepting submissions at a later date. We will further clarify the submission instructions closer to the deadline.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from New Yorko Times (Yury Kashnitsky)
Базовые траты в Нидерландах
#life #career #netherlands
Посчитаем грошики-шекелёчки, поноем, это все любят. Есть, конечно, Numbeo, но лишний датапойнт про цену жизни в Нидерландах, возможно, вам не помешает. Как рассказать о своей зарплате, не называю цифру? Легко. Я вам примерно распишу расходы на жизнь в Нидерландах и скажу, что у меня все впритык, от зп к зп (ага, с финансовой грамотностью пока так себе выходит). По крайне мере, когда я в 2018 услышал, сколько мне предлагают в Нидерландах, мне казалось, буду в золоте купаться. На деле все оказалось не так радужно. Так что возможно, пост поможет тем, кто приценивается к жизни в NL.
Допустим, в семье работает один человек и получает 5к евро/месяц чистыми (что примерно соответствует гроссу в 75к с рулингом или 100к - без него. Рулинг - это налоговая поблажка на первые 5 лет, когда 30% дохода не облагается налогом). Более точно можно прикинуть на thetax.nl. Не совсем моя ситуация, но пойдет для бейзлайна. Оговорок много (что если оба работают, есть дети или нет, свое жилье или аренда) – это можно в коменты перенести.
Обязательные расходы (т.е. исключая еду/кафе/etc) у меня ~2500. Каждый грош считать не хочется, но основное, из того что больше 100 евро/месяц:
- 1300 – ипотека
- 400 – медстраховка на двоих
- 200 – транспорт на двоих
- 140 – коммунальные налоги
- 120 – электричество/газ
- ~350 – остальное (связь, инет, прочие страховки, и т.д.)
Немного прокомментировать все же надо, хотя главный вывод – в конце поста.
- Ипотека за 1300 это прям дико удачно, успел ухватить ставку 1.8%, сейчас она ближе к 4.5% и соотв-но, ежемесячный платеж легко может быть и 2к и 3к, ажиотаж с жильем бешеный, особенно в Амстере
- медстраховка дорогая, и тут сэкономить особо не выйдет, помимо ~150/чел в месяц еще 360/год – собственный риск, то есть 360 платишь сам, а что свыше – уже покрывается. Плюс зубы отдельно, легко выходит 200 евро в месяц на человека. К слову, голландские врачи настолько дорогие, что на оплату их труда уходит ~30% подоходных налогов, помимо отчислений на медстраховку
- транспорт дорогой, к примеру, поезда катаются на чистом электричестве от ветрогенераторов. Где-то видел статью, что в NL самый дорогой транспорт с нормировкой на уровень доходов – похоже на правду
- коммуналка – это налог собственника жилья (неактуально, если снимаете), а также на мусор, канализацию и проч
- электричество/газ – ну тут, понятное дело, отказ от fcukn russian gas сильно все цены повысил
И вот, допустим, остается еще 2500/мес на еду, кафе, шмотки, путешествия и прочую жизнь. Хм… 80 евро в день? Вы уже видите, что так недолго превратиться в бомжа, живущего в красивой обстановке. Ну и начать жить по-голландски, то есть экономить – ходить в Lidl и jumbo, а не Albert Heijn, нагибаться рачком за более дешевыми товарами на нижних полках, ходить в кафе раз в месяц, не есть рыбу/мясо. В-общем, это все не про меня. К слову, наиболее характерное голландское слово, передающее менталитет – goedkoop (дешевый) - только дословно это не “дешевый” или ”cheap” (негативный посыл), а “выгодно купленный” (явно позитивный посыл). Про это еще разверну мысль #todo
В итоге если в семье работает один, то рассматривать что-то меньшее 75к/год (с учетом рулинга) я бы не советовал. Когда рулинга уже нет – это вообще другая история, требующая кардинально новых решений, о которых, надеюсь, получится вскоре рассказать.
А если хочется путешествовать и вообще-то думать про старость и откладывать – то и подавно надо сразу смотреть на 100к+. Либо, конечно, вдвоем работать.
#life #career #netherlands
Посчитаем грошики-шекелёчки, поноем, это все любят. Есть, конечно, Numbeo, но лишний датапойнт про цену жизни в Нидерландах, возможно, вам не помешает. Как рассказать о своей зарплате, не называю цифру? Легко. Я вам примерно распишу расходы на жизнь в Нидерландах и скажу, что у меня все впритык, от зп к зп (ага, с финансовой грамотностью пока так себе выходит). По крайне мере, когда я в 2018 услышал, сколько мне предлагают в Нидерландах, мне казалось, буду в золоте купаться. На деле все оказалось не так радужно. Так что возможно, пост поможет тем, кто приценивается к жизни в NL.
Допустим, в семье работает один человек и получает 5к евро/месяц чистыми (что примерно соответствует гроссу в 75к с рулингом или 100к - без него. Рулинг - это налоговая поблажка на первые 5 лет, когда 30% дохода не облагается налогом). Более точно можно прикинуть на thetax.nl. Не совсем моя ситуация, но пойдет для бейзлайна. Оговорок много (что если оба работают, есть дети или нет, свое жилье или аренда) – это можно в коменты перенести.
Обязательные расходы (т.е. исключая еду/кафе/etc) у меня ~2500. Каждый грош считать не хочется, но основное, из того что больше 100 евро/месяц:
- 1300 – ипотека
- 400 – медстраховка на двоих
- 200 – транспорт на двоих
- 140 – коммунальные налоги
- 120 – электричество/газ
- ~350 – остальное (связь, инет, прочие страховки, и т.д.)
Немного прокомментировать все же надо, хотя главный вывод – в конце поста.
- Ипотека за 1300 это прям дико удачно, успел ухватить ставку 1.8%, сейчас она ближе к 4.5% и соотв-но, ежемесячный платеж легко может быть и 2к и 3к, ажиотаж с жильем бешеный, особенно в Амстере
- медстраховка дорогая, и тут сэкономить особо не выйдет, помимо ~150/чел в месяц еще 360/год – собственный риск, то есть 360 платишь сам, а что свыше – уже покрывается. Плюс зубы отдельно, легко выходит 200 евро в месяц на человека. К слову, голландские врачи настолько дорогие, что на оплату их труда уходит ~30% подоходных налогов, помимо отчислений на медстраховку
- транспорт дорогой, к примеру, поезда катаются на чистом электричестве от ветрогенераторов. Где-то видел статью, что в NL самый дорогой транспорт с нормировкой на уровень доходов – похоже на правду
- коммуналка – это налог собственника жилья (неактуально, если снимаете), а также на мусор, канализацию и проч
- электричество/газ – ну тут, понятное дело, отказ от fcukn russian gas сильно все цены повысил
И вот, допустим, остается еще 2500/мес на еду, кафе, шмотки, путешествия и прочую жизнь. Хм… 80 евро в день? Вы уже видите, что так недолго превратиться в бомжа, живущего в красивой обстановке. Ну и начать жить по-голландски, то есть экономить – ходить в Lidl и jumbo, а не Albert Heijn, нагибаться рачком за более дешевыми товарами на нижних полках, ходить в кафе раз в месяц, не есть рыбу/мясо. В-общем, это все не про меня. К слову, наиболее характерное голландское слово, передающее менталитет – goedkoop (дешевый) - только дословно это не “дешевый” или ”cheap” (негативный посыл), а “выгодно купленный” (явно позитивный посыл). Про это еще разверну мысль #todo
В итоге если в семье работает один, то рассматривать что-то меньшее 75к/год (с учетом рулинга) я бы не советовал. Когда рулинга уже нет – это вообще другая история, требующая кардинально новых решений, о которых, надеюсь, получится вскоре рассказать.
А если хочется путешествовать и вообще-то думать про старость и откладывать – то и подавно надо сразу смотреть на 100к+. Либо, конечно, вдвоем работать.
#ml #retail #sales
Неочевидные подзадачи: "восстановление" спроса, продолжение ряда спроса в прошлое.
https://www.youtube.com/watch?v=HIcobTeOJ-0
Неочевидные подзадачи: "восстановление" спроса, продолжение ряда спроса в прошлое.
https://www.youtube.com/watch?v=HIcobTeOJ-0
YouTube
Максим Гончаров - Комплексный подход к оптимизации товарного ассортимента
Вопросы и комментарии — в Telegram-чате сообщества NoML:
t.me/noml_community
Презентация и материалы всех мероприятий — в базе знаний:
noml.club
Анонсы новых мероприятий и другая полезная информация — в канале сообщества:
t.me/noml_digest
t.me/noml_community
Презентация и материалы всех мероприятий — в базе знаний:
noml.club
Анонсы новых мероприятий и другая полезная информация — в канале сообщества:
t.me/noml_digest
#futurology #clark
"В 1968 году имя Артура Кларка стало нарицательным благодаря выходу на экраны фильма «2001: Космическая одиссея». Фильм также содержал множество предсказаний Кларка относительно будущего космических полетов, которые были мастерски выполнены иллюстраторами фильма и декораторами. А в книгу вошла «Карта будущего» Кларка — график его предсказаний до 2100 года.
Например, с точки зрения освоения космоса, Кларк предсказал космические корабли, высадку на Луну и лаборатории в космосе к середине 70-х годов. 1980–1990-м годам он предсказал, что люди высадятся на Марс (и другие планеты), за ними последуют колонии в 2000-х и межзвездные зонды к 2020-м.
Он также спрогнозировал появление спутников связи к середине 80-х, ИИ — к 90-м и «Глобальную библиотеку» к 2005. Он считал, что ученые будут разрабатывать эффективные батареи в 70-х и 80-х, термоядерную энергию к 90-м, а беспроводную энергию — к 2005 году. Кроме того, к началу 2000-х он предвидел рост экзобиологии (исследования жизни в космосе), генетической каталогизации и геномики.
Конечно, не все эти прогнозы сбылись, по крайней мере, не в предложенные им временные рамки. Но даже там, где он ошибался, Кларк предвидел многие тенденции и события, которые в конечном итоге станут (или находятся в процессе становления) реальностью. "
https://hightech.fm/2021/08/27/clarke-get-right
"В 1968 году имя Артура Кларка стало нарицательным благодаря выходу на экраны фильма «2001: Космическая одиссея». Фильм также содержал множество предсказаний Кларка относительно будущего космических полетов, которые были мастерски выполнены иллюстраторами фильма и декораторами. А в книгу вошла «Карта будущего» Кларка — график его предсказаний до 2100 года.
Например, с точки зрения освоения космоса, Кларк предсказал космические корабли, высадку на Луну и лаборатории в космосе к середине 70-х годов. 1980–1990-м годам он предсказал, что люди высадятся на Марс (и другие планеты), за ними последуют колонии в 2000-х и межзвездные зонды к 2020-м.
Он также спрогнозировал появление спутников связи к середине 80-х, ИИ — к 90-м и «Глобальную библиотеку» к 2005. Он считал, что ученые будут разрабатывать эффективные батареи в 70-х и 80-х, термоядерную энергию к 90-м, а беспроводную энергию — к 2005 году. Кроме того, к началу 2000-х он предвидел рост экзобиологии (исследования жизни в космосе), генетической каталогизации и геномики.
Конечно, не все эти прогнозы сбылись, по крайней мере, не в предложенные им временные рамки. Но даже там, где он ошибался, Кларк предвидел многие тенденции и события, которые в конечном итоге станут (или находятся в процессе становления) реальностью. "
https://hightech.fm/2021/08/27/clarke-get-right
Хайтек
Интернет и разумные машины: какие из идей Артура Кларка уже сбылись, а какие — нет
Британский ученый, изобретатель, футурист, исследователь и писатель-фантаст Артур Кларк известен «предсказаниями» будущего, за которые он получил прозвище «Пророк космической эры». Он делился видением будущего, которое удивляло современников, а также идеями…
👍1