#polars #pandas
Запостил мини-серию о polars по сравнению с pandas:
Преимущества polars
Отличия от pandas
Недостатки polars
Заключение.
Несмотря на его сыроватость, по умолчанию теперь всегда буду использовать в своих ds-проектах polars. Людям, которые пишут pandas, наплевать на производительность, я это знаю по личному общению с одним таким человеком. Их принцип Кнутовкий, premature optimization is the root of all evil, поэтому, чтобы избежать зла, они не оптимизируют вообще. С таким кредо вам не библиотеки для работы с данными писать, уважаемые. Ну вот история вас и оставляет на обочине.
Всё же, полностью от пандас отказываться неразумно, часто там определённые вещи можно закодить быстрее в силу большей гибкости (axis) или наличия индексов. Но, как правило, я pandas в этом ключе использую лишь для маленьких фреймов. Ещё он понимает больше форматов данных. И у поларса к нему есть быстрый интероп.
Так что используйте оба, но приоритет отдавайте polars. Жизнь слишком коротка, чтобы грузить лишь 1 ядро CPU из 100 )
Из новостей: компания Риччи работает над polars cloud, это будет что-то типа dask/coiled, похоже.
Запостил мини-серию о polars по сравнению с pandas:
Преимущества polars
Отличия от pandas
Недостатки polars
Заключение.
Несмотря на его сыроватость, по умолчанию теперь всегда буду использовать в своих ds-проектах polars. Людям, которые пишут pandas, наплевать на производительность, я это знаю по личному общению с одним таким человеком. Их принцип Кнутовкий, premature optimization is the root of all evil, поэтому, чтобы избежать зла, они не оптимизируют вообще. С таким кредо вам не библиотеки для работы с данными писать, уважаемые. Ну вот история вас и оставляет на обочине.
Всё же, полностью от пандас отказываться неразумно, часто там определённые вещи можно закодить быстрее в силу большей гибкости (axis) или наличия индексов. Но, как правило, я pandas в этом ключе использую лишь для маленьких фреймов. Ещё он понимает больше форматов данных. И у поларса к нему есть быстрый интероп.
Так что используйте оба, но приоритет отдавайте polars. Жизнь слишком коротка, чтобы грузить лишь 1 ядро CPU из 100 )
Из новостей: компания Риччи работает над polars cloud, это будет что-то типа dask/coiled, похоже.
Telegram
Aspiring Data Science
#polars #pandas
Сравнительно недавно начал по-настоящему изучать поларс, потому что пандас уже задолбал своей неповоротливостью. Хочу поделиться некоторыми замечаниями о фреймворке.
Прежде всего, в глаза бросается жёсткая логика в наименовании методов.…
Сравнительно недавно начал по-настоящему изучать поларс, потому что пандас уже задолбал своей неповоротливостью. Хочу поделиться некоторыми замечаниями о фреймворке.
Прежде всего, в глаза бросается жёсткая логика в наименовании методов.…
👍2🔥1
#hardware #datacenters
"Современная стандартная стойка 42U с набором оборудования весит порядка 680–1150 кг, максимально допустимая масса для многих составляет около 1360 кг. При этом стойка для ИИ-серверов в полной комплектации с системами охлаждения и сетевыми модулями может весить более 1800 кг. Десятки или даже сотник таких стоек в среднем ЦОД гиперскейлера могут серьёзно повлиять на всё устройство помещения.
В Dell'Oro Group отмечает, что в машинных залах всё реже используются фальшполы, под которыми часто размещают кабели, элементы системы охлаждения и др., поскольку установка такой конструкции — довольно дорогая задача. В JLL оговаривают, что во многих ЦОД фальшполы всё же используются, поскольку они нужны для кабелей и труб, но их высота может быть уже в районе 30 см, а не традиционных 60 см. Операторы по-прежнему опасаются прокладывать трубы сверху из-за возможных протечек."
https://servernews.ru/1123925
"Современная стандартная стойка 42U с набором оборудования весит порядка 680–1150 кг, максимально допустимая масса для многих составляет около 1360 кг. При этом стойка для ИИ-серверов в полной комплектации с системами охлаждения и сетевыми модулями может весить более 1800 кг. Десятки или даже сотник таких стоек в среднем ЦОД гиперскейлера могут серьёзно повлиять на всё устройство помещения.
В Dell'Oro Group отмечает, что в машинных залах всё реже используются фальшполы, под которыми часто размещают кабели, элементы системы охлаждения и др., поскольку установка такой конструкции — довольно дорогая задача. В JLL оговаривают, что во многих ЦОД фальшполы всё же используются, поскольку они нужны для кабелей и труб, но их высота может быть уже в районе 30 см, а не традиционных 60 см. Операторы по-прежнему опасаются прокладывать трубы сверху из-за возможных протечек."
https://servernews.ru/1123925
ServerNews - все из мира больших мощностей
Неподъёмный груз: ИИ-серверы стали слишком тяжелы для обычных ЦОД
Операторы дата-центров столкнулись с неочевидной на первый взгляд проблемой. ИИ-оборудование не только требует больше электроэнергии и более эффективного охлаждения в сравнении с обычными серверами — оно ещё и тяжелее платформ для классических задач, сообщает…
#automl #itmo #fedot
Оказывается, ещё и Федот есть у нас )))
itmo я знаю по библиотечке отбора признаков, она не производительная, но богатая.
Пока в Федоте понравились только анимированные графики прогресса.
Надо бы его с Ламой посравнивать на реальных задачах.
https://www.youtube.com/watch?v=_hQtoVgT6Q4
Оказывается, ещё и Федот есть у нас )))
itmo я знаю по библиотечке отбора признаков, она не производительная, но богатая.
Пока в Федоте понравились только анимированные графики прогресса.
Надо бы его с Ламой посравнивать на реальных задачах.
https://www.youtube.com/watch?v=_hQtoVgT6Q4
#automl #autogluon #lama
Маленькая история о том, как я неудачно пытался протащить automl в проект в последний момент.
В проекте использовали библиотеки своей разработки над бустингами, я запланировал в следующем релизе добавить automl. Ролики Autogluon, где авторы долго хвастаются, какой у них хороший фреймворк, засорили мне мозг (и, видимо, отпечатались на подкорке), а с LaMa у меня был позитивный личный опыт (правда, давно).
Я вспомнил слова Саши Рыжкова, автора LaMa, с презенташки годовой давности, что на бенчмарках autogluon себя плохо показал, т.к. забивал диск моделями, которые его никто не просил сохранять. Но как-то подумал, ну за год же это глупое поведение исправили или позволили отключать, правда?
НЕТ. Herr там. autogluon засрал весь диск облачного сервера, причём выяснилось, что он дампит на диск не только модели, но и ПРИЗНАКИ, полный датасет. Причем делает это снова и снова, если вы обучаете новую модель на тех же данных. И отключить это нельзя, а вручную подчищать за ним данные я не рискнул, потом неясно, запустится ли без подчищенных файлов инференс. В топку. А хвастались-то больше всех.
Ну с Ламой-то проблем не возникло? Тоже не так. ML-сервер с окружением был настроен с python 3.13, что уже казалось рискованным решением, так и вышло, LaMa на этой версии просто не пошла, а пересоздавать окружение не было возможности ) Так что до сл релиза.
Эрго: не берите последнюю версию Питона для ML проектов, берите хотя бы last-1.
Маленькая история о том, как я неудачно пытался протащить automl в проект в последний момент.
В проекте использовали библиотеки своей разработки над бустингами, я запланировал в следующем релизе добавить automl. Ролики Autogluon, где авторы долго хвастаются, какой у них хороший фреймворк, засорили мне мозг (и, видимо, отпечатались на подкорке), а с LaMa у меня был позитивный личный опыт (правда, давно).
Я вспомнил слова Саши Рыжкова, автора LaMa, с презенташки годовой давности, что на бенчмарках autogluon себя плохо показал, т.к. забивал диск моделями, которые его никто не просил сохранять. Но как-то подумал, ну за год же это глупое поведение исправили или позволили отключать, правда?
НЕТ. Herr там. autogluon засрал весь диск облачного сервера, причём выяснилось, что он дампит на диск не только модели, но и ПРИЗНАКИ, полный датасет. Причем делает это снова и снова, если вы обучаете новую модель на тех же данных. И отключить это нельзя, а вручную подчищать за ним данные я не рискнул, потом неясно, запустится ли без подчищенных файлов инференс. В топку. А хвастались-то больше всех.
Ну с Ламой-то проблем не возникло? Тоже не так. ML-сервер с окружением был настроен с python 3.13, что уже казалось рискованным решением, так и вышло, LaMa на этой версии просто не пошла, а пересоздавать окружение не было возможности ) Так что до сл релиза.
Эрго: не берите последнюю версию Питона для ML проектов, берите хотя бы last-1.
Forwarded from Сергей Усанов | Алгоритмы в трейдинге
Интересно иногда оглядываться назад
Вспоминаю себя в начале трейдерского пути:
• Огроменные розовые очки - грезил о доходностях «ну хотя бы 20% в месяц!»
• Жить на берегу моря и торговать с ноута.
• Анализировать уровни, плотности и новости 🫣
• Дружить и общаться с крутыми трейдерами.
Что из этого реализовал?
• Доходность 12% в квартал
• Живу в трех часах от моря и гор
• Придумываю стратегии и тестирую их своим софтом
• Дружу и общаюсь с КРУТЫМИ трейдерами
Еду выступать на конференцию с лучшими алготрейдерами страны!
Можно смеяться, но это реальные мои мечты🤗
Путь был долгий и не легкий.
Что бы я сейчас посоветовал себе тогда?
1. Много торговать! Но! На бумаге!
2. Изучить тестеры по типу Tslab и проверять как можно больше стратегий на истории, чтобы как можно быстрее отфильтровать то, что не работает.
3. Изучить количественный анализ - то, что торгуют проф-участники рынка. Да, сложно, долго и не понятно…
4. Тестировать, тестировать и тестировать
5. Учиться программировать! (подходит не для всех) или писать софт на заказ.
Какие ошибки я совершил?
1. Торговал сразу на больших реальных деньгах.
2. Очень долго не подходил к количественному анализу.
3. Думал, что торговая стратегия это самая важная тема, с которой нужно разобраться в трейдинге.
4. Торговал руками (что лично для меня было тяжело)
Поэтому мой путь растянулся на годы, но получил много опыта.
Что дальше? У меня еще много мечт и целей - работаю до результата!
Интересно, вы сейчас к чему идете?
Вспоминаю себя в начале трейдерского пути:
• Огроменные розовые очки - грезил о доходностях «ну хотя бы 20% в месяц!»
• Жить на берегу моря и торговать с ноута.
• Анализировать уровни, плотности и новости 🫣
• Дружить и общаться с крутыми трейдерами.
Что из этого реализовал?
• Доходность 12% в квартал
• Живу в трех часах от моря и гор
• Придумываю стратегии и тестирую их своим софтом
• Дружу и общаюсь с КРУТЫМИ трейдерами
Еду выступать на конференцию с лучшими алготрейдерами страны!
Можно смеяться, но это реальные мои мечты🤗
Путь был долгий и не легкий.
Что бы я сейчас посоветовал себе тогда?
1. Много торговать! Но! На бумаге!
2. Изучить тестеры по типу Tslab и проверять как можно больше стратегий на истории, чтобы как можно быстрее отфильтровать то, что не работает.
3. Изучить количественный анализ - то, что торгуют проф-участники рынка. Да, сложно, долго и не понятно…
4. Тестировать, тестировать и тестировать
5. Учиться программировать! (подходит не для всех) или писать софт на заказ.
Какие ошибки я совершил?
1. Торговал сразу на больших реальных деньгах.
2. Очень долго не подходил к количественному анализу.
3. Думал, что торговая стратегия это самая важная тема, с которой нужно разобраться в трейдинге.
4. Торговал руками (что лично для меня было тяжело)
Поэтому мой путь растянулся на годы, но получил много опыта.
Что дальше? У меня еще много мечт и целей - работаю до результата!
Интересно, вы сейчас к чему идете?
👍1
#polars
Пробую протолкнуть альтернативный аллокатор в Поларс. Ну или хотя бы просто напомнить про проблему.
https://github.com/pola-rs/polars/issues/23128
Пробую протолкнуть альтернативный аллокатор в Поларс. Ну или хотя бы просто напомнить про проблему.
https://github.com/pola-rs/polars/issues/23128
GitHub
Free RAM not released to OS after heavy dataframe operations · Issue #23128 · pola-rs/polars
Denoscription I work on latest Ubuntu linux (24.04.2 LTS, but prev versions suffer from the same) and latest Polars (1.30). I start with a dataframe of size of 10Gb, and perform a lot of groupby, joi...
🔥1
#trading #go
https://polygon.io/blog/case-study-algorithmict-trading-with-go
"Creating an automated trading tool has been nothing short of an adventure that crosses multiple domains, from finance and programming to data analytics. Through this project, I have come to learn and appreciate the complexity of the stock market and how hundreds of billions of dollars change hands each day. There are countless trading strategies out there and having your own platform to play around with them is incredibly cool. Once you have a system like this you cannot easily go back to a normal broker since you feel blind. I wanted to share of the key lessons out of all this:
Understanding Abstractions: The stock market, and exchanges like NYSE are NASDAQ, are not monolithic entities but are actually large distributed systems built up from 19+ exchanges, each with its own quirks and features. Candlestick data is a massive abstraction built from raw trade or tick data, and understanding these abstractions at a deep level is essential. Then you have market trading times such as pre-market, regular market, or after-hours where different rules apply. Getting as close to the source data as possible and thoroughly understanding its origins and usage will significantly enhance your ability to leverage it.
Order Management: It is not as simple as sending buy and sell orders. Factors such as pre-computed position sizing (the number of shares to buy and your total money percentage), the ability to quickly buy and sell shares, having the ability to manage 25+ active positions and act on them instantly, tax and commission calculations, slippage management, and order state monitoring all contribute significantly to successful trading.
Edge Cases: Order execution, tracking, modifications, cancellations, partial orders, market halts and more, there are so many edge cases to consider and these cost you money if you miss something. It is absolutely essential to test these scenarios with simulated money, also known as paper trading, rather than real funds to minimize potential losses. I lost a lot of money when my system detected a trend in the pre-market and the stock jumped 40%, I bought at the absolute high, and then it quickly dropped, and my system did not adjust the sell order correctly. I basically lost 40% on that trade in minutes. You can make and lose money extremely fast in pre-market or after hours trading sessions since the normal market rules are different and you can see wild swings take place extremely quickly.
Embrace Randomness: Many of us might be tempted to think that the key to a successful trading bot lies in discovering some secret, all-powerful strategy. While strategies are undeniably important, they are not everything. One of the most valuable lessons I learned was the utility of random buying to test the core functionalities of the system. For example, try to make 1000 trades per day across random stocks for a week and you'll learn so much about your system. By introducing random buy orders into the system, you can effectively test your buying and selling logic, manage partial fills, test cancel logic, and critically evaluate the overall position tracking system. Does your system keep track of them as expected? Can you delve into the trade details? Do the positions exit based on the established criteria? Is the logging working as intended? I incorporated random stock buying using my paper trading account into my testing process, which turned out to be an incredibly efficient way to verify multiple aspects of the system simultaneously. Not to mention, it made testing a lot more unpredictable and fun."
https://polygon.io/blog/case-study-algorithmict-trading-with-go
"Creating an automated trading tool has been nothing short of an adventure that crosses multiple domains, from finance and programming to data analytics. Through this project, I have come to learn and appreciate the complexity of the stock market and how hundreds of billions of dollars change hands each day. There are countless trading strategies out there and having your own platform to play around with them is incredibly cool. Once you have a system like this you cannot easily go back to a normal broker since you feel blind. I wanted to share of the key lessons out of all this:
Understanding Abstractions: The stock market, and exchanges like NYSE are NASDAQ, are not monolithic entities but are actually large distributed systems built up from 19+ exchanges, each with its own quirks and features. Candlestick data is a massive abstraction built from raw trade or tick data, and understanding these abstractions at a deep level is essential. Then you have market trading times such as pre-market, regular market, or after-hours where different rules apply. Getting as close to the source data as possible and thoroughly understanding its origins and usage will significantly enhance your ability to leverage it.
Order Management: It is not as simple as sending buy and sell orders. Factors such as pre-computed position sizing (the number of shares to buy and your total money percentage), the ability to quickly buy and sell shares, having the ability to manage 25+ active positions and act on them instantly, tax and commission calculations, slippage management, and order state monitoring all contribute significantly to successful trading.
Edge Cases: Order execution, tracking, modifications, cancellations, partial orders, market halts and more, there are so many edge cases to consider and these cost you money if you miss something. It is absolutely essential to test these scenarios with simulated money, also known as paper trading, rather than real funds to minimize potential losses. I lost a lot of money when my system detected a trend in the pre-market and the stock jumped 40%, I bought at the absolute high, and then it quickly dropped, and my system did not adjust the sell order correctly. I basically lost 40% on that trade in minutes. You can make and lose money extremely fast in pre-market or after hours trading sessions since the normal market rules are different and you can see wild swings take place extremely quickly.
Embrace Randomness: Many of us might be tempted to think that the key to a successful trading bot lies in discovering some secret, all-powerful strategy. While strategies are undeniably important, they are not everything. One of the most valuable lessons I learned was the utility of random buying to test the core functionalities of the system. For example, try to make 1000 trades per day across random stocks for a week and you'll learn so much about your system. By introducing random buy orders into the system, you can effectively test your buying and selling logic, manage partial fills, test cancel logic, and critically evaluate the overall position tracking system. Does your system keep track of them as expected? Can you delve into the trade details? Do the positions exit based on the established criteria? Is the logging working as intended? I incorporated random stock buying using my paper trading account into my testing process, which turned out to be an incredibly efficient way to verify multiple aspects of the system simultaneously. Not to mention, it made testing a lot more unpredictable and fun."
#trading #go
https://polygon.io/blog/case-study-algorithmict-trading-with-go
"Tick Bars vs Time Bars: When you look at a candlestick bar offered by your broker, it will have an open, high, low, close, number of trades, volume, etc, this covers a known time frame, for example 30 seconds. However, the issue here is that there are times where the market is moving extremely quickly and not all bars are created equally, some might have 100 trades while others have 1,000s of trades in the same time span. So, I am taking the raw tick and quote data and building my own bars based off a set number of trades. This not only provides much better resolutions during times of increased trade activity, like market open and close, but also enables me to add in things like price spread, and other custom metrics. This is where really understanding the data you are using comes in and you can build your own abstractions rather than using someone else's.
Going In-Memory: In the early stages, I faced numerous challenges attempting to maintain state in a database because of the large spikes in activity around market open and close. Eventually, I decided to go entirely in-memory, utilizing a large map with mutex locking that virtually every component of my system interacts with. Although it was very challenging to construct and debug, this solution ultimately solved all my scalability issues. I configured the system to dump the struct that holds all data into a compressed gob file for storage, with a method to reload it in case I needed to restart the application. It can grow to be 40GB+ throughout the day and I needed to patch the Go build to support dumping gobs this large. This ensured no loss of my stateful data. Another lesson learned the hard way was the need for uninterruptible power supply. I found this out when a power outage occurred while my system was live. Without power, I lost all state data, leaving my positions unmonitored. A proper power backup system became a necessity to prevent such incidents from occurring in the future.
Complex and Lonely: This project proved much more challenging and time-consuming than initially anticipated. As I said, this has turned from a minor hobby into a full blown obsession. It can be lonely too. All you are basically doing is trying to increase the money in your account. This can be an extremely wild roller costing.
Using Go and Python: I have moved to a hybrid approach where my trading system is written in Go but I do most of my data exploring in Python just because it has extensive data science libraries, and it simplified certain aspects of looking at data or trying to find patterns.
Leveraging Personal Computers: Modern desktop PCs are extremely powerful and able to handle real-time monitoring of the entire stock market if you hack on it enough.
ChatGPT enters the Chat: ChatGPT has been a game-changer for me. With it, I can easily ask questions, use it for sanity checks, and even have it generate code. I went from not knowing how to solve a problem, blindly googling around and reading books, to just telling ChatGPT the problem, and then asking how it would solve it, then asking it to code the solution. This is absolutely insane and has easily 3x my productivity.
In retrospect, I would probably keep adding things here. For example, hunting down all types of market anomalies, things like the meme stock adventures, wild IPO events, market booms and busts, Fed news and interest rate hikes, all this just in the last few years. It’s pretty cool to have your own system to look at all this stuff, detect it, and then see it appear in the news. You definitely feel like you have a front row seat when market events are unfolding right in front of you."
https://polygon.io/blog/case-study-algorithmict-trading-with-go
"Tick Bars vs Time Bars: When you look at a candlestick bar offered by your broker, it will have an open, high, low, close, number of trades, volume, etc, this covers a known time frame, for example 30 seconds. However, the issue here is that there are times where the market is moving extremely quickly and not all bars are created equally, some might have 100 trades while others have 1,000s of trades in the same time span. So, I am taking the raw tick and quote data and building my own bars based off a set number of trades. This not only provides much better resolutions during times of increased trade activity, like market open and close, but also enables me to add in things like price spread, and other custom metrics. This is where really understanding the data you are using comes in and you can build your own abstractions rather than using someone else's.
Going In-Memory: In the early stages, I faced numerous challenges attempting to maintain state in a database because of the large spikes in activity around market open and close. Eventually, I decided to go entirely in-memory, utilizing a large map with mutex locking that virtually every component of my system interacts with. Although it was very challenging to construct and debug, this solution ultimately solved all my scalability issues. I configured the system to dump the struct that holds all data into a compressed gob file for storage, with a method to reload it in case I needed to restart the application. It can grow to be 40GB+ throughout the day and I needed to patch the Go build to support dumping gobs this large. This ensured no loss of my stateful data. Another lesson learned the hard way was the need for uninterruptible power supply. I found this out when a power outage occurred while my system was live. Without power, I lost all state data, leaving my positions unmonitored. A proper power backup system became a necessity to prevent such incidents from occurring in the future.
Complex and Lonely: This project proved much more challenging and time-consuming than initially anticipated. As I said, this has turned from a minor hobby into a full blown obsession. It can be lonely too. All you are basically doing is trying to increase the money in your account. This can be an extremely wild roller costing.
Using Go and Python: I have moved to a hybrid approach where my trading system is written in Go but I do most of my data exploring in Python just because it has extensive data science libraries, and it simplified certain aspects of looking at data or trying to find patterns.
Leveraging Personal Computers: Modern desktop PCs are extremely powerful and able to handle real-time monitoring of the entire stock market if you hack on it enough.
ChatGPT enters the Chat: ChatGPT has been a game-changer for me. With it, I can easily ask questions, use it for sanity checks, and even have it generate code. I went from not knowing how to solve a problem, blindly googling around and reading books, to just telling ChatGPT the problem, and then asking how it would solve it, then asking it to code the solution. This is absolutely insane and has easily 3x my productivity.
In retrospect, I would probably keep adding things here. For example, hunting down all types of market anomalies, things like the meme stock adventures, wild IPO events, market booms and busts, Fed news and interest rate hikes, all this just in the last few years. It’s pretty cool to have your own system to look at all this stuff, detect it, and then see it appear in the news. You definitely feel like you have a front row seat when market events are unfolding right in front of you."
❤1
#trading
Оказывается, рыночною капитализацию компании посчитать не так просто ещё )
https://polygon.io/blog/whats-in-a-market-cap
Оказывается, рыночною капитализацию компании посчитать не так просто ещё )
https://polygon.io/blog/whats-in-a-market-cap
Polygon.io
How do you calculate market cap? The formula to calculate market cap is share price x weighted shares outstanding, where weighted shares outstanding represents the equivalent number of shares of a particular share class that equates to the whole company.
🆒1
#updates
Работает - НЕ ТРОГАЙ!!! ))
"На сегодняшний день многие контрольные центры и башни управления воздушным движением в США работают на оборудовании, которое выглядело бы уместно в конце XX века. Некоторые сотрудники до сих пор используют бумажные ленты-полоски для координации полётов, а данные между системами передаются с помощью дискет. При этом компьютеры продолжают использовать операционную систему Windows 95, выпущенную Microsoft в 1995 году. Однако, как пишет Ars Technica, несмотря на устаревшие технологии, система демонстрирует высокую надёжность. Тем не менее специалисты, включая профессора Университета Иллинойс Шелдона Джейкобсона (Sheldon Jacobson), который занимается анализом рисков в авиации, указывают, что обновление является необходимым.
Среди плюсов старых технологий отмечается их устойчивость к современным киберугрозам. Например, системы FAA не пострадали во время глобального сбоя, вызванного ошибкой CrowdStrike в 2024 году. Тем не менее, как признают в самом управлении, 51 из 138 систем FAA признаны непригодными к дальнейшей эксплуатации из-за устаревшего оборудования и отсутствия запчастей. При этом проблема не уникальна. Аналогичные трудности, связанные с отказом от дискет, испытывают, например, Япония и железнодорожная система Сан-Франциско, где обновление планируется лишь к 2030 году.
Подчёркивается, что модернизация системы управления воздушным движением является чрезвычайно сложной задачей. В отличие от обычных корпоративных IT-сетей, эти системы должны работать круглосуточно без остановок. Выключение даже на короткий срок может повлиять на безопасность полётов. Кроме того, новые системы должны быть устойчивы к кибератакам, поскольку взлом может парализовать всю авиационную инфраструктуру, затронув транспорт, торговлю и экстренные службы.
Однако не все эксперты уверены в успехе инициативы. Так, аналитик авиационной отрасли Роберт Мэн (Robert W. Mann Jr.) в интервью NPR отметил, что обещания модернизировать систему звучат уже более 30 лет, но реальных изменений так и не произошло. Поводом для беспокойства стали недавние сбои, включая остановку системы уведомлений для лётчиков NOTAM (Notice to Airmen) в январе 2023 года, которая привела к массовым задержкам рейсов по всей стране. Эксперты тогда связали это с устаревшей инфраструктурой и повреждёнными файлами баз данных."
https://3dnews.ru/1124188/ssha-vsyo-eshchyo-ispolzuyut-disketi-i-windows-95-dlya-upravleniya-aviareysami
Работает - НЕ ТРОГАЙ!!! ))
"На сегодняшний день многие контрольные центры и башни управления воздушным движением в США работают на оборудовании, которое выглядело бы уместно в конце XX века. Некоторые сотрудники до сих пор используют бумажные ленты-полоски для координации полётов, а данные между системами передаются с помощью дискет. При этом компьютеры продолжают использовать операционную систему Windows 95, выпущенную Microsoft в 1995 году. Однако, как пишет Ars Technica, несмотря на устаревшие технологии, система демонстрирует высокую надёжность. Тем не менее специалисты, включая профессора Университета Иллинойс Шелдона Джейкобсона (Sheldon Jacobson), который занимается анализом рисков в авиации, указывают, что обновление является необходимым.
Среди плюсов старых технологий отмечается их устойчивость к современным киберугрозам. Например, системы FAA не пострадали во время глобального сбоя, вызванного ошибкой CrowdStrike в 2024 году. Тем не менее, как признают в самом управлении, 51 из 138 систем FAA признаны непригодными к дальнейшей эксплуатации из-за устаревшего оборудования и отсутствия запчастей. При этом проблема не уникальна. Аналогичные трудности, связанные с отказом от дискет, испытывают, например, Япония и железнодорожная система Сан-Франциско, где обновление планируется лишь к 2030 году.
Подчёркивается, что модернизация системы управления воздушным движением является чрезвычайно сложной задачей. В отличие от обычных корпоративных IT-сетей, эти системы должны работать круглосуточно без остановок. Выключение даже на короткий срок может повлиять на безопасность полётов. Кроме того, новые системы должны быть устойчивы к кибератакам, поскольку взлом может парализовать всю авиационную инфраструктуру, затронув транспорт, торговлю и экстренные службы.
Однако не все эксперты уверены в успехе инициативы. Так, аналитик авиационной отрасли Роберт Мэн (Robert W. Mann Jr.) в интервью NPR отметил, что обещания модернизировать систему звучат уже более 30 лет, но реальных изменений так и не произошло. Поводом для беспокойства стали недавние сбои, включая остановку системы уведомлений для лётчиков NOTAM (Notice to Airmen) в январе 2023 года, которая привела к массовым задержкам рейсов по всей стране. Эксперты тогда связали это с устаревшей инфраструктурой и повреждёнными файлами баз данных."
https://3dnews.ru/1124188/ssha-vsyo-eshchyo-ispolzuyut-disketi-i-windows-95-dlya-upravleniya-aviareysami
3DNews - Daily Digital Digest
США всё ещё используют дискеты и Windows 95 для управления авиарейсами
В то время как мир перешёл к цифровым технологиям, американская система управления воздушным движением использует для передачи данных дискеты и компьютеры на базе Windows 95. Власти обещают это изменить. По данным Ars Technica, Федеральное авиационное управление…
#games
как сейчас помню этот голос: Dune. THE BATTLE FOR ARRAKIS! )
https://3dnews.ru/1124248/da-ne-issyaknet-potok-pryanosti-v-steam-ofitsialno-vishla-dune-awakening
как сейчас помню этот голос: Dune. THE BATTLE FOR ARRAKIS! )
https://3dnews.ru/1124248/da-ne-issyaknet-potok-pryanosti-v-steam-ofitsialno-vishla-dune-awakening
3DNews - Daily Digital Digest
«Да не иссякнет поток пряности!»: в Steam официально вышла Dune: Awakening
Как и было обещано, 10 июня после пятидневного периода расширенного доступа для владельцев премиальных изданий в Steam состоялся релиз MMO c элементами выживания и открытым миром Dune: Awakening от компании Funcom.
❤1
#datasets #astronomy
"Это первый релиз каталога COSMOS по наблюдениям с телескопа «Уэбб». Исследование охватывает 0,54 градуса неба с помощью NIRCam (камеры для получения изображений в ближнем инфракрасном диапазоне) — это «примерно площадь трёх полных лун», и 0,2 квадратных градуса с помощью MIRI (камеры для получения изображений в среднем инфракрасном диапазоне)."
Зайдите. Это прекрасно.
https://3dnews.ru/1124250/vselennaya-bez-registratsii-i-sms-v-otkritiy-dostup-vilogeno-15-tbayt-fotografiy-kosmosa-ot-dgeymsa-uebba
"Это первый релиз каталога COSMOS по наблюдениям с телескопа «Уэбб». Исследование охватывает 0,54 градуса неба с помощью NIRCam (камеры для получения изображений в ближнем инфракрасном диапазоне) — это «примерно площадь трёх полных лун», и 0,2 квадратных градуса с помощью MIRI (камеры для получения изображений в среднем инфракрасном диапазоне)."
Зайдите. Это прекрасно.
https://3dnews.ru/1124250/vselennaya-bez-registratsii-i-sms-v-otkritiy-dostup-vilogeno-15-tbayt-fotografiy-kosmosa-ot-dgeymsa-uebba
3DNews - Daily Digital Digest
Вселенная без регистрации и СМС: в открытый доступ выложено 1,5 Тбайт фотографий космоса от «Джеймса Уэбба»
Коллаборация Cosmic Evolution Survey (COSMOS) выложила в открытый доступ наиболее полный на сегодняшний день обзор Вселенной с помощью приборов космической инфракрасной обсерватории имени Джеймса Уэбба.
#hardware #samsung
Какая же тупость
https://3dnews.ru/1124300/holodilniki-samsung-nauchilis-uznavat-chlenov-semi-po-golosu
Какая же тупость
https://3dnews.ru/1124300/holodilniki-samsung-nauchilis-uznavat-chlenov-semi-po-golosu
3DNews - Daily Digital Digest
Холодильники Samsung научились узнавать членов семьи по голосу
Новейшие умные холодильники Samsung теперь поддерживают распознавание голосов членов семьи с помощью фирменного ИИ-помощника Bixby. Он может использоваться для вывода персонализированной информации на встроенные умные дисплеи в зависимости от того, кто из…
#polars
В копилку информации о всякой хрени, которая может случиться в Поларсе.
Соптимизировали, блять.
P.S. А, нет, это баг.
https://github.com/pola-rs/polars/issues/23190
В копилку информации о всякой хрени, которая может случиться в Поларсе.
Соптимизировали, блять.
P.S. А, нет, это баг.
https://github.com/pola-rs/polars/issues/23190
GitHub
Optimize infer_schema_length in pl.Dataframe. 100 can lead to silently lost columns for no reason. · Issue #23190 · pola-rs/polars
Denoscription Recently I spent a few hours trying to understand why certain columns do not appear in a Polars dataframe that I was constructing from the list of dicts, whereas they should have been t...