#algorithms
Так, кто готовился к собесам, что за алгоритм решает следующую задачу:
есть N авторов с произвольным количеством книг у каждого (не более 10).
Нужно упаковать книги в наименьшее число рюкзаков (вместимость рюкзака не более 10 книг), при этом книги одного автора не должны находиться в разных рюкзаках.
Так, кто готовился к собесам, что за алгоритм решает следующую задачу:
есть N авторов с произвольным количеством книг у каждого (не более 10).
Нужно упаковать книги в наименьшее число рюкзаков (вместимость рюкзака не более 10 книг), при этом книги одного автора не должны находиться в разных рюкзаках.
❤1
#algorithms
Вам требуется оценить наличие книг автора A в магазинах книжной сети. На Ваш запрос в стороннюю АСУ, есть ли на складе магазинов сети определённое число книг N, система учёта по странной причине выдаёт по всем магазинам не точный остаток книг, а нормированную по всей сети и затем разбитую по 10%-ным бинам вероятность того, что в данном магазине есть как минимум N книг. Например, если в сети 3 магазина с 2, 15, 40 книг автора на складе, и Вы запрашиваете, есть ли в магазинах 50 книг, АСУ рассчитает вероятности как [2/50, 15/50, 40/50]=[0.04, 0.3, 0.8], применит насыщение до 1 (останутся те же числа т.к. у нас числа не превышают 1), нормирует на максимальное число 0,8 получит [0.05 , 0.375, 1. ], разобъёт на 10% бины и вернёт ответ [10%, 40%, 100%], Каждый запрос в систему платный, и Вы хотите выяснить если не точное количество книг автора во всех магазинах (так как система округляет бин в правую сторону), то хотя бы их помагазинное соотношение, но при этом минимизировать стоимость получения этой информации. Система ограничивает параметр N до N_MAX=100, то есть наличие больше ста книг проверить не получится. Изменить систему учёта нельзя, можно манипулировать только параметром N и числом отправленных запросов. Как будете действовать?
Вам требуется оценить наличие книг автора A в магазинах книжной сети. На Ваш запрос в стороннюю АСУ, есть ли на складе магазинов сети определённое число книг N, система учёта по странной причине выдаёт по всем магазинам не точный остаток книг, а нормированную по всей сети и затем разбитую по 10%-ным бинам вероятность того, что в данном магазине есть как минимум N книг. Например, если в сети 3 магазина с 2, 15, 40 книг автора на складе, и Вы запрашиваете, есть ли в магазинах 50 книг, АСУ рассчитает вероятности как [2/50, 15/50, 40/50]=[0.04, 0.3, 0.8], применит насыщение до 1 (останутся те же числа т.к. у нас числа не превышают 1), нормирует на максимальное число 0,8 получит [0.05 , 0.375, 1. ], разобъёт на 10% бины и вернёт ответ [10%, 40%, 100%], Каждый запрос в систему платный, и Вы хотите выяснить если не точное количество книг автора во всех магазинах (так как система округляет бин в правую сторону), то хотя бы их помагазинное соотношение, но при этом минимизировать стоимость получения этой информации. Система ограничивает параметр N до N_MAX=100, то есть наличие больше ста книг проверить не получится. Изменить систему учёта нельзя, можно манипулировать только параметром N и числом отправленных запросов. Как будете действовать?
#amd #gpu #ai
"AMD назвала ИИ стратегическим приоритетом № 1, а завоевать рынок компании помогут ускорители Instinct MI300"
Ну ни хера себе, в 2023-м они наконец-то поняли важность ИИ. А Nvidia пилила Куду с 2006-го и завоевала весь рынок, тем временем.
https://3dnews.ru/1086111/publikatsiya-1086111
"AMD назвала ИИ стратегическим приоритетом № 1, а завоевать рынок компании помогут ускорители Instinct MI300"
Ну ни хера себе, в 2023-м они наконец-то поняли важность ИИ. А Nvidia пилила Куду с 2006-го и завоевала весь рынок, тем временем.
https://3dnews.ru/1086111/publikatsiya-1086111
3DNews - Daily Digital Digest
AMD назвала ИИ стратегическим приоритетом № 1, а завоевать рынок компании помогут ускорители Instinct MI300
AMD делает ставку на ИИ, как отметила генеральный директор доктор Лиза Су (Lisa Su) во время отчётной конференции по результатам деятельности в первом квартале 2023 года, и ускоритель вычислений Instinct MI300 возглавит это направление.
Forwarded from Техножрица 👩💻👩🏫👩🔧
Понемногу почитываю после работы книгу "Десять уравнений, которые правят миром" (Рис. 1). Пока что дочитала до половины, и ее содержимое меня уже несколько разочаровало.
Я бы не сказала, что книга является откровенной техноересью, но она не очень хорошо продумана и не очень хорошо написана. Иногда встречаются ошибки и недоработки в рассуждениях, особенно в главе про формулу Байеса (из-за избытка проблем в рассуждениях - а именно, в части посылок и выводов - эту главу читать не советую). Две трети занимает просто какая-то нейтральная графомания, которую не очень интересно читать и которую можно убрать без вреда для повествования - так сказать, филлер. Иногда встречаются и вполне нормальные объяснения математики, но их мало относительно общего объема текста.
Почитав информацию про автора и посмотрев его личный сайт, я пришла к выводу, что основная цель книги, скорее всего, заключается в том, чтобы прославлять ум и сообразительность автора и укреплять его авторитет как консультанта для бизнеса в вопросах применения сложной математической статистики - так сказать, продвигать личный бренд. Поэтому забота о содержимом тут на втором месте.
В свете этого вывода, меня сильно позабавил текст, изображенный на рис. 2 а). Во-первых, потому что если хочешь, чтобы бизнес-аналитики хотели с тобой консультироваться, настолько открыто их обсирать становится каким-то абсурдным занятием; а во-вторых, потому что я представила себе, что лицо автора во время написания этих строк выглядело как лицо персонажей из мема на рис. 2б).
А бизнес-аналитики-то и не знают, в чем прикол математики))))) жаль не понять гуманитариям)))))))
Посмотрим, может, в конце будет еще что-то интересное.
#книги
Я бы не сказала, что книга является откровенной техноересью, но она не очень хорошо продумана и не очень хорошо написана. Иногда встречаются ошибки и недоработки в рассуждениях, особенно в главе про формулу Байеса (из-за избытка проблем в рассуждениях - а именно, в части посылок и выводов - эту главу читать не советую). Две трети занимает просто какая-то нейтральная графомания, которую не очень интересно читать и которую можно убрать без вреда для повествования - так сказать, филлер. Иногда встречаются и вполне нормальные объяснения математики, но их мало относительно общего объема текста.
Почитав информацию про автора и посмотрев его личный сайт, я пришла к выводу, что основная цель книги, скорее всего, заключается в том, чтобы прославлять ум и сообразительность автора и укреплять его авторитет как консультанта для бизнеса в вопросах применения сложной математической статистики - так сказать, продвигать личный бренд. Поэтому забота о содержимом тут на втором месте.
В свете этого вывода, меня сильно позабавил текст, изображенный на рис. 2 а). Во-первых, потому что если хочешь, чтобы бизнес-аналитики хотели с тобой консультироваться, настолько открыто их обсирать становится каким-то абсурдным занятием; а во-вторых, потому что я представила себе, что лицо автора во время написания этих строк выглядело как лицо персонажей из мема на рис. 2б).
А бизнес-аналитики-то и не знают, в чем прикол математики))))) жаль не понять гуманитариям)))))))
Посмотрим, может, в конце будет еще что-то интересное.
#книги
❤1
#sumpter
↑ Это отличная книга, мне очень понравилась. Воды тут немного. В популярной форме рассматриваются логрег, байес, проверка гипотез, марковские поцессы, pagerank и граф связей, corrcoeff, обучение с подкреплением, антиградиент ошибки. Всё это иллюстрируется реальными бизнес-примерами из ставок на спорт, финансов, рекламы. Есть и доля философских рассуждений о математике, религии, морали. Очень интересно написано и очень мотивирует. И набор тем, которыми занимается автор, очень сильно пересекается с моими интересами.
↑ Это отличная книга, мне очень понравилась. Воды тут немного. В популярной форме рассматриваются логрег, байес, проверка гипотез, марковские поцессы, pagerank и граф связей, corrcoeff, обучение с подкреплением, антиградиент ошибки. Всё это иллюстрируется реальными бизнес-примерами из ставок на спорт, финансов, рекламы. Есть и доля философских рассуждений о математике, религии, морали. Очень интересно написано и очень мотивирует. И набор тем, которыми занимается автор, очень сильно пересекается с моими интересами.
❤1🌚1
#hardwar #hdd
"Компания предложила статистику по 236 893 накопителям 30 моделей почти за 10 лет, исключив накопители, которые только проходят тестирование, а также модели, представленные менее чем 60 экземплярами в её серверах. Среднегодовая частота отказов (AFR) продолжила рост и достигла 1,4 %. Самый низкий AFR в 0,28 % показала 16-Тбайт модель Western Digital WUH721816ALE6L4 с выборкой в 14 098 единиц. Самый высокий AFR в 2,57 % и, вместе с тем, 2,2 млн дней наработки показал 4-Тбайт Seagate ST4000DM000. В ходе предыдущего отчёта в феврале Backblaze пояснила, что при более высокой частоте отказов диски Seagate предлагаются по более скромным ценникам, что обеспечивает их рентабельность."
https://3dnews.ru/1086207/backblaze-sredniy-vozrast-gyostkih-diskov-pered-otkazom-sostavlyaet-vsego-25-goda
"Компания предложила статистику по 236 893 накопителям 30 моделей почти за 10 лет, исключив накопители, которые только проходят тестирование, а также модели, представленные менее чем 60 экземплярами в её серверах. Среднегодовая частота отказов (AFR) продолжила рост и достигла 1,4 %. Самый низкий AFR в 0,28 % показала 16-Тбайт модель Western Digital WUH721816ALE6L4 с выборкой в 14 098 единиц. Самый высокий AFR в 2,57 % и, вместе с тем, 2,2 млн дней наработки показал 4-Тбайт Seagate ST4000DM000. В ходе предыдущего отчёта в феврале Backblaze пояснила, что при более высокой частоте отказов диски Seagate предлагаются по более скромным ценникам, что обеспечивает их рентабельность."
https://3dnews.ru/1086207/backblaze-sredniy-vozrast-gyostkih-diskov-pered-otkazom-sostavlyaet-vsego-25-goda
3DNews - Daily Digital Digest
До поломки жёсткие диски в среднем работают всего 2,5 года — статистика Backblaze
Недавно компания Secure Data Recovery, занимающаяся восстановлением данных, сообщила, что чаще всего жёсткие диски выходят из строя накануне своего трёхлетия.
#mindreading #ai
Неужели правда?
"Очередной шаг в направлении неинвазивных методов регистрации мыслей сделали учёные из Техасского университета в Остине, представив семантический декодер. Они использовали метод функциональной магнитно-резонансной томографии (фМРТ) для регистрации активности головного мозга пациентов, которую с помощью ИИ — машинного обучения на больших языковых моделях, подобных GPT от Open AI — транслировали в образы с помощью текстовых сообщений. Проще говоря, модель прямым текстом в чате сообщала всё то, о чём в данный момент думает человек. Но при этом всё не так просто.
Во-первых, описание было тем точнее, чем охотнее пациент сотрудничал с учёными. Это, кстати, предотвращает насильственное чтение мыслей. Если вы не хотите выдавать «мысли» — думайте о чём-то другом. Во-вторых, данные интерпретировались правильно только в том случае, если ИИ обучался на конкретном пациенте. В частности, каждый из испытуемых в течение 16 часов прослушивал устную речь, в процессе чего модель изучала активность его мозга. Если же ИИ пытался расшифровать мысли, не обучаясь на мозговой активности подопытного, то результаты были неразборчивыми."
https://3dnews.ru/1086021/ii-nauchili-chitat-misli-bez-implantatov-no-tolko-esli-vi-etogo-zahotite
Неужели правда?
"Очередной шаг в направлении неинвазивных методов регистрации мыслей сделали учёные из Техасского университета в Остине, представив семантический декодер. Они использовали метод функциональной магнитно-резонансной томографии (фМРТ) для регистрации активности головного мозга пациентов, которую с помощью ИИ — машинного обучения на больших языковых моделях, подобных GPT от Open AI — транслировали в образы с помощью текстовых сообщений. Проще говоря, модель прямым текстом в чате сообщала всё то, о чём в данный момент думает человек. Но при этом всё не так просто.
Во-первых, описание было тем точнее, чем охотнее пациент сотрудничал с учёными. Это, кстати, предотвращает насильственное чтение мыслей. Если вы не хотите выдавать «мысли» — думайте о чём-то другом. Во-вторых, данные интерпретировались правильно только в том случае, если ИИ обучался на конкретном пациенте. В частности, каждый из испытуемых в течение 16 часов прослушивал устную речь, в процессе чего модель изучала активность его мозга. Если же ИИ пытался расшифровать мысли, не обучаясь на мозговой активности подопытного, то результаты были неразборчивыми."
https://3dnews.ru/1086021/ii-nauchili-chitat-misli-bez-implantatov-no-tolko-esli-vi-etogo-zahotite
3DNews - Daily Digital Digest
ИИ научили читать мысли томографом и сразу превращать их в текст
Новые компьютерные технологии обещают головокружительные перспективы в области помощи людям с поражениями мозга или нервной системы.
Forwarded from Техножрица 👩💻👩🏫👩🔧
Раньше я думала, что предельный возможный размер транзистора уже достигнут, и параметр "кол-во транзисторов на единицу площади процессора" увеличивают за счет увеличения количества слоев в процессоре, а не за счет уменьшения физического размера транзистора. Сегодня в дискуссии узнала, что на самом деле физические размеры транзисторов все-таки продолжают уменьшать.
Для доказательства этого факта мне скинули вот эту ссылку:
https://semiwiki.com/semiconductor-manufacturers/intel/314047-intel-4-presented-at-vlsi
Однако, статья оказалась для меня слишком сложной, чтобы сходу понять, о чем речь. Было непонятно, что изображено на рисунках (особенно рис.5), смутил незнакомый в этом контексте термин cell и другие незнакомые термины.
Я решила поискать информацию о том, как обозначают разные части транзистора, чтобы понять, что же нарисовано на рис.5 и что там за подписи. Это было непросто, но, в конце концов, информация-таки нашлась.
Из этой статьи:
https://deep-review.com/articles/what-is-nanometer-process/
стало понятно, что из себя представляют торчащие штуки (fin pitch) на схемах. Оказалось, это просто так канал, по которому проходит ток в транзисторе (fin), сжали, словно шакал постарался, и наверх вытянули. А все для того, чтобы он стал уже в разрезе. А штучку, по которой запирающее напряжение подается (gate) они сверху кладут. Кроме того, один транзистор, оказывается, может иметь несколько fin'ов.
В этой статье:
https://www.anandtech.com/show/13405/intel-10nm-cannon-lake-and-core-i3-8121u-deep-dive-review/3
меня заинтересовали разделы "Fin Mechanics", а также "Building A Cell, and Managing Cell Size". Благодаря первому, стала лучше ясна терминология касательно транзисторов в современных процессорах и того, как они могут выглядеть, а благодаря второму, наконец-то - что такое cell. Там рассказано, что "A cell is a combination of a fixed number of fins with a varying amount of gates" и изображена картинка, как это выглядит ("Here is an Intel SEM image"). Таким образом, cell может выполнять функцию одного транзистора или как бы нескольких, соединенных друг за другом (поправьте, если снова ошибаюсь).
Теперь, вернувшись к первой ссылке, можно, наконец, понять, что из себя представляют разные подписи на Рис.5, а оттуда уже составить примерное представление, о чем говорится в таблице на Рис.4, в которой сравнивают размер разных элементов в условно 3-, 4- и 5-нм тех.процессе. "Условно" потому что 3, 4 и 5 нм не являются обозначениями размеров конкретных частей ячейки. Уменьшение тех.процесса, конечно же, коррелирует с уменьшением размера ячейки, но я не знаю, по какой точно формуле он рассчитывается, так как в указанных статьях я ее не нашла, и в данный момент меня это не интересовало.
Ну хотя бы узнала, что транзисторы действительно все-таки уменьшаются, а также уточнила, как именно они выглядят в современных чипах. Теперь будет легче не запутаться, если увижу таблицы или картинки, похожие на Рис.4 и Рис.5.
Так и весь вечер прошел...
P.S. Нашла попутно ещё одну статью, очень старую:
https://habr.com/ru/amp/publications/108615/
В ней рекомендую посмотреть картинку со слоями проводников и объяснения к ней. Все, что касается производства, однако, уже устарело, потому что статья 2010-го.
Для доказательства этого факта мне скинули вот эту ссылку:
https://semiwiki.com/semiconductor-manufacturers/intel/314047-intel-4-presented-at-vlsi
Однако, статья оказалась для меня слишком сложной, чтобы сходу понять, о чем речь. Было непонятно, что изображено на рисунках (особенно рис.5), смутил незнакомый в этом контексте термин cell и другие незнакомые термины.
Я решила поискать информацию о том, как обозначают разные части транзистора, чтобы понять, что же нарисовано на рис.5 и что там за подписи. Это было непросто, но, в конце концов, информация-таки нашлась.
Из этой статьи:
https://deep-review.com/articles/what-is-nanometer-process/
стало понятно, что из себя представляют торчащие штуки (fin pitch) на схемах. Оказалось, это просто так канал, по которому проходит ток в транзисторе (fin), сжали, словно шакал постарался, и наверх вытянули. А все для того, чтобы он стал уже в разрезе. А штучку, по которой запирающее напряжение подается (gate) они сверху кладут. Кроме того, один транзистор, оказывается, может иметь несколько fin'ов.
В этой статье:
https://www.anandtech.com/show/13405/intel-10nm-cannon-lake-and-core-i3-8121u-deep-dive-review/3
меня заинтересовали разделы "Fin Mechanics", а также "Building A Cell, and Managing Cell Size". Благодаря первому, стала лучше ясна терминология касательно транзисторов в современных процессорах и того, как они могут выглядеть, а благодаря второму, наконец-то - что такое cell. Там рассказано, что "A cell is a combination of a fixed number of fins with a varying amount of gates" и изображена картинка, как это выглядит ("Here is an Intel SEM image"). Таким образом, cell может выполнять функцию одного транзистора или как бы нескольких, соединенных друг за другом (поправьте, если снова ошибаюсь).
Теперь, вернувшись к первой ссылке, можно, наконец, понять, что из себя представляют разные подписи на Рис.5, а оттуда уже составить примерное представление, о чем говорится в таблице на Рис.4, в которой сравнивают размер разных элементов в условно 3-, 4- и 5-нм тех.процессе. "Условно" потому что 3, 4 и 5 нм не являются обозначениями размеров конкретных частей ячейки. Уменьшение тех.процесса, конечно же, коррелирует с уменьшением размера ячейки, но я не знаю, по какой точно формуле он рассчитывается, так как в указанных статьях я ее не нашла, и в данный момент меня это не интересовало.
Ну хотя бы узнала, что транзисторы действительно все-таки уменьшаются, а также уточнила, как именно они выглядят в современных чипах. Теперь будет легче не запутаться, если увижу таблицы или картинки, похожие на Рис.4 и Рис.5.
Так и весь вечер прошел...
P.S. Нашла попутно ещё одну статью, очень старую:
https://habr.com/ru/amp/publications/108615/
В ней рекомендую посмотреть картинку со слоями проводников и объяснения к ней. Все, что касается производства, однако, уже устарело, потому что статья 2010-го.
Semiwiki
Intel 4 Deep Dive - Semiwiki
As I previously wrote about here, Intel is presenting their…
👍1
#trading #williams
Сегодня при просмотре видео по трейдингу услышал ссылку на Ларри Вильямса. Этот американский трейдер, который говорит о себе как "сделал сколько-то миллионов из $10 тысяч". Немедленно вспомнил его книжку, которую купил ещё в 2000-х, и в которой он типа делился своими секретами успешной торговли. Вся книжка сводилась к тому, что он на дневках подбирал правила, которые давали несколько сделок в год (!!). Он суммировал эти виртуальные сделки за 20 лет, и делал таким образом выводы об эффективности правил. Это и были его "секретные рекомендации". Уже тогда мне казалось странным делать выводы по 30 объектам, а узнав о подгонке под кривую и статистической значимости, я понял, что Ларри Вильямс является не гениальным трейдером, а, в терминологии Талеба, опасным идиотом. Ну либо он в своей книге лукавил, но это не делает ему больше чести. Так что, когда слышу о правилах, почерпнутых от Ларри, губы мои искривляются в усмешке.
https://www.youtube.com/watch?v=K4DtSpD649g
Сегодня при просмотре видео по трейдингу услышал ссылку на Ларри Вильямса. Этот американский трейдер, который говорит о себе как "сделал сколько-то миллионов из $10 тысяч". Немедленно вспомнил его книжку, которую купил ещё в 2000-х, и в которой он типа делился своими секретами успешной торговли. Вся книжка сводилась к тому, что он на дневках подбирал правила, которые давали несколько сделок в год (!!). Он суммировал эти виртуальные сделки за 20 лет, и делал таким образом выводы об эффективности правил. Это и были его "секретные рекомендации". Уже тогда мне казалось странным делать выводы по 30 объектам, а узнав о подгонке под кривую и статистической значимости, я понял, что Ларри Вильямс является не гениальным трейдером, а, в терминологии Талеба, опасным идиотом. Ну либо он в своей книге лукавил, но это не делает ему больше чести. Так что, когда слышу о правилах, почерпнутых от Ларри, губы мои искривляются в усмешке.
https://www.youtube.com/watch?v=K4DtSpD649g
YouTube
Скальпинг стратегия. Обучение трейдингу. Торговля по объёмам. QScalp
🚀 Обучение трейдингу. Курс скальпинг: https://finansistcb.ru/scalping
👩🎓👨🎓 Отзывы студентов
• Вконтакте: https://vk.com/topic-171169455_39265343?offset=220
• Instagram: https://instagram.com/finansist.cb_otzyvy?utm_medium=copy_link
Интенсив "Трейдинг…
👩🎓👨🎓 Отзывы студентов
• Вконтакте: https://vk.com/topic-171169455_39265343?offset=220
• Instagram: https://instagram.com/finansist.cb_otzyvy?utm_medium=copy_link
Интенсив "Трейдинг…
👍1😁1
#astronomy #lifeorigin
"Повторный анализ данных с космического аппарата НАСА «Вояджер-2» и новое компьютерное моделирование позволили специалистам NASA сделать вывод, что четыре крупнейшие луны Урана, вероятно, содержат океанический слой между ядром и ледяной корой. Это исследование стало первым, в котором подробно описывается эволюция внутреннего состава и структуры всех пяти крупных лун Урана: Ариэли, Умбриэли, Титании, Оберона и Миранды. По результатам работы делается вывод, что на четырёх из этих лун имеются океаны, глубина которых может составлять десятки километров.
У Урана известны 27 лун, четыре самых крупных из них — это Ариэль (1160 км в поперечнике), Умбриэль (1170 км), Оберон (1520 км) и Титания (1589 км). Давно считалось, что Титания, как самая крупная, могла сохранить достаточно внутреннего тепла от радиоактивного распада, чтобы поддерживать подлёдный океан тёплым и даже потенциально пригодным для поддержания в нём жизни. Остальные луны считались недостаточно большими для сохранения тепла и воды в жидкой фазе. Новая работа даёт надежду, что жидкие океаны могут быть также на трёх других крупных спутниках Урана. Следовательно, будущая миссия должна это учитывать и готовить соответствующие научные приборы.
Приборы в миссии к Урану должны уметь определять как химический состав вещества на поверхности планеты, так и заглянуть под её поверхность. Для твёрдой породы необходим один диапазон сканирования, для поиска воды — другая методика. Например, о наличии воды подо льдом можно судить по регистрации токов, которые создают магнитные поля спутников. Также спектральный анализ вещества на поверхности вблизи вероятных разломов расскажет о содержании недр и о химическом составе подлёдной воды.
Наконец, обнаружение относительно свежих разломов — это также верный признак тектонической активности лун и теплоты её недр (как вариант, наличие тёплого океана). Учитывая вновь вскрывшиеся возможности, NASA сможет лучше спланировать миссию к Урану."
https://3dnews.ru/1086242/chetire-krupneyshih-sputnika-urana-mogut-sodergat-podlyodnie-okeani-pokazalo-novoe-modelirovanie-i-tam-moget-bit-gizn
"Повторный анализ данных с космического аппарата НАСА «Вояджер-2» и новое компьютерное моделирование позволили специалистам NASA сделать вывод, что четыре крупнейшие луны Урана, вероятно, содержат океанический слой между ядром и ледяной корой. Это исследование стало первым, в котором подробно описывается эволюция внутреннего состава и структуры всех пяти крупных лун Урана: Ариэли, Умбриэли, Титании, Оберона и Миранды. По результатам работы делается вывод, что на четырёх из этих лун имеются океаны, глубина которых может составлять десятки километров.
У Урана известны 27 лун, четыре самых крупных из них — это Ариэль (1160 км в поперечнике), Умбриэль (1170 км), Оберон (1520 км) и Титания (1589 км). Давно считалось, что Титания, как самая крупная, могла сохранить достаточно внутреннего тепла от радиоактивного распада, чтобы поддерживать подлёдный океан тёплым и даже потенциально пригодным для поддержания в нём жизни. Остальные луны считались недостаточно большими для сохранения тепла и воды в жидкой фазе. Новая работа даёт надежду, что жидкие океаны могут быть также на трёх других крупных спутниках Урана. Следовательно, будущая миссия должна это учитывать и готовить соответствующие научные приборы.
Приборы в миссии к Урану должны уметь определять как химический состав вещества на поверхности планеты, так и заглянуть под её поверхность. Для твёрдой породы необходим один диапазон сканирования, для поиска воды — другая методика. Например, о наличии воды подо льдом можно судить по регистрации токов, которые создают магнитные поля спутников. Также спектральный анализ вещества на поверхности вблизи вероятных разломов расскажет о содержании недр и о химическом составе подлёдной воды.
Наконец, обнаружение относительно свежих разломов — это также верный признак тектонической активности лун и теплоты её недр (как вариант, наличие тёплого океана). Учитывая вновь вскрывшиеся возможности, NASA сможет лучше спланировать миссию к Урану."
https://3dnews.ru/1086242/chetire-krupneyshih-sputnika-urana-mogut-sodergat-podlyodnie-okeani-pokazalo-novoe-modelirovanie-i-tam-moget-bit-gizn
3DNews - Daily Digital Digest
Четыре крупнейших спутника Урана могут иметь океаны из воды под поверхностью, и там может быть жизнь
Уран и его спутники станут следующей масштабной задачей для изучения космоса силами NASA.
#openai #gpt #costs
"Согласно оценкам Дилана Пателя (Dylan Patel), главного аналитика консалтинговой фирмы SemiAnalysis, использование ChatGPT может стоить OpenAI около $700 тыс. в день, учитывая затраты, связанные с использованием вычислительных ресурсов. Председатель совета директоров Alphabet (материнская компания Google) Джон Хеннесси (John Hennessy), ранее заявил, что поиск в Bard, собственном чат-боте Google, обходится в 10 раз дороже, чем обычный поиск.
Хотя финансовое положение OpenAI укрепилось, главным образом благодаря многомиллиардным инвестициям Microsoft, растущий спрос на её чат-бот, число активных пользователей которого выросло только за два первых месяца после запуска до 100 млн, приведёт к дальнейшему росту затрат компании. Ранее на этой неделе гендиректор OpenAI Сэм Альтман (Sam Altman), говоря о росте затрат, заявил, что это «будет самый капиталоёмкий стартап в истории Кремниевой долины», пишет The Information.
Как указано в публикации The Information, Альтман «в частном порядке предположил», что OpenAI может попытаться привлечь около $100 млрд в ближайшие годы, поскольку компания работает над развитием общего искусственного интеллекта (AGI) — столь же мощного ИИ, как человеческий мозг.
По прогнозам Reuters, выручка OpenAI значительно вырастет в этом году на фоне ажиотажного роста популярности её технологии. Ожидается, что выручка компании достигнет $200 млн в этом году, а затем вырастет до $1 млрд в 2024 году."
https://3dnews.ru/1086282/publikatsiya-1086282
"Согласно оценкам Дилана Пателя (Dylan Patel), главного аналитика консалтинговой фирмы SemiAnalysis, использование ChatGPT может стоить OpenAI около $700 тыс. в день, учитывая затраты, связанные с использованием вычислительных ресурсов. Председатель совета директоров Alphabet (материнская компания Google) Джон Хеннесси (John Hennessy), ранее заявил, что поиск в Bard, собственном чат-боте Google, обходится в 10 раз дороже, чем обычный поиск.
Хотя финансовое положение OpenAI укрепилось, главным образом благодаря многомиллиардным инвестициям Microsoft, растущий спрос на её чат-бот, число активных пользователей которого выросло только за два первых месяца после запуска до 100 млн, приведёт к дальнейшему росту затрат компании. Ранее на этой неделе гендиректор OpenAI Сэм Альтман (Sam Altman), говоря о росте затрат, заявил, что это «будет самый капиталоёмкий стартап в истории Кремниевой долины», пишет The Information.
Как указано в публикации The Information, Альтман «в частном порядке предположил», что OpenAI может попытаться привлечь около $100 млрд в ближайшие годы, поскольку компания работает над развитием общего искусственного интеллекта (AGI) — столь же мощного ИИ, как человеческий мозг.
По прогнозам Reuters, выручка OpenAI значительно вырастет в этом году на фоне ажиотажного роста популярности её технологии. Ожидается, что выручка компании достигнет $200 млн в этом году, а затем вырастет до $1 млрд в 2024 году."
https://3dnews.ru/1086282/publikatsiya-1086282
3DNews - Daily Digital Digest
Убытки OpenAI достигли $540 млн в прошлом году, когда компания запустила ChatGPT
Разработка ИИ-чат-бота ChatGPT обошлась OpenAI в значительную сумму, сообщил ресурс The Information со ссылкой на источники, осведомлённые о финансовых показателях компании.
#hardware
Оказывается, за 60т.р. на Али можно взять 2-CPU комп с 512Gb оперативки. Правда, память и процы не просто старых поколений, а ещё и б/у. Но всё же...
https://www.youtube.com/watch?v=AJP78j-_mEk
Оказывается, за 60т.р. на Али можно взять 2-CPU комп с 512Gb оперативки. Правда, память и процы не просто старых поколений, а ещё и б/у. Но всё же...
https://www.youtube.com/watch?v=AJP78j-_mEk
YouTube
🚀512 Gb ОЗУ СУПЕРКОМПЬЮТЕР ДОСТУПЕН КАЖДОМУ! БЮДЖЕТНЫЙ СПОСОБ УСТАНОВИТЬ МНОГО ОПЕРАТИВНОЙ ПАМЯТИ
💻КОМПЛЕКТ ИЗ ВИДЕО https://alli.pub/6nt4uz
💥БЕЗ РАДИАТОРОВ https://alli.pub/6nt4xp 🏅КАБЕЛЬ u.2 https://alli.pub/6nt4yv 🙀INTEL NVME https://alli.pub/6nt4yv
#китайг
Подпишись на канал и ты не пожалеешь http://goo.gl/nAdLzK
💥БЕЗ РАДИАТОРОВ https://alli.pub/6nt4xp 🏅КАБЕЛЬ u.2 https://alli.pub/6nt4yv 🙀INTEL NVME https://alli.pub/6nt4yv
#китайг
Подпишись на канал и ты не пожалеешь http://goo.gl/nAdLzK
#biology #dna #panchin #centraldogm #genomics #craigventer
https://www.youtube.com/watch?v=fxc-VAosN90
https://www.youtube.com/watch?v=fxc-VAosN90
YouTube
Александр Панчин. Игра в Бога. 2022
Устранение генетических дефектов и улучшение человека. Спасение вымирающих видов и воскрешение вымерших. Изменение генетического кода и алфавита ДНК. Генная инженерия популяций и мутагенные цепные реакции. Синтетические хромосомы и избавление от генетического…
#opticloud
Новости о моём проекте рекомендации лучших облачных серверов для расчётов: совершенно неожиданно обнаружилась возможность косвенно оценивать доступность инстансов в определённых регионах AWS, и я 3 дня провел, реализуя парсинг и регулярное сохранение такой, как я считаю, ценной информации. Это несколько сбивает сроки выкатки API, хотя всё же постараюсь опубликовать в воскресенье пусть и с пока небольшой функциональностью, но целостное решение.
Пока оно позволит клиентам получить ответ на вопрос вида "где сейчас взять 20 самых дешёвых воркеров Intel с 2 Гб RAM на ядро для моего Dask кластера".
Я видел несколько сайтов с похожей инфой, но:
1) нигде не учитывается текущая доступность инстансов, т.к. AWS полностью не раскрывает эту инфу
2) нет либо деталей архитектуры, либо кросс-регионного сравнения цен. надо вручную выписывать варианты в табличку.
Таким образом, уже бета-версия моего сервиса может быть полезной.
Следующим шагом собираюсь прикрутить в API (по модели процессора) общедоступные бенчмарки, чтобы можно было искать серверы с "железом, самым дешёвым на единицу производительности для Linpack/ Stockfish/CL/CUDA etc".
Потом кастомные реальные бенчмарки, другие облака, ML для предсказания долгосрочной доступности и цен, но это всё, конечно, если появятся клиенты.
Новости о моём проекте рекомендации лучших облачных серверов для расчётов: совершенно неожиданно обнаружилась возможность косвенно оценивать доступность инстансов в определённых регионах AWS, и я 3 дня провел, реализуя парсинг и регулярное сохранение такой, как я считаю, ценной информации. Это несколько сбивает сроки выкатки API, хотя всё же постараюсь опубликовать в воскресенье пусть и с пока небольшой функциональностью, но целостное решение.
Пока оно позволит клиентам получить ответ на вопрос вида "где сейчас взять 20 самых дешёвых воркеров Intel с 2 Гб RAM на ядро для моего Dask кластера".
Я видел несколько сайтов с похожей инфой, но:
1) нигде не учитывается текущая доступность инстансов, т.к. AWS полностью не раскрывает эту инфу
2) нет либо деталей архитектуры, либо кросс-регионного сравнения цен. надо вручную выписывать варианты в табличку.
Таким образом, уже бета-версия моего сервиса может быть полезной.
Следующим шагом собираюсь прикрутить в API (по модели процессора) общедоступные бенчмарки, чтобы можно было искать серверы с "железом, самым дешёвым на единицу производительности для Linpack/ Stockfish/CL/CUDA etc".
Потом кастомные реальные бенчмарки, другие облака, ML для предсказания долгосрочной доступности и цен, но это всё, конечно, если появятся клиенты.
✍2
#openiterest #trading
Интересный пример ручного поиска сигнала в шуме )
https://www.youtube.com/watch?v=a-Y06nGBobk
Интересный пример ручного поиска сигнала в шуме )
https://www.youtube.com/watch?v=a-Y06nGBobk
YouTube
Открытый интерес. Настройка в Quik-е и скрипт автоматического сбора данных с портала Мос. биржи
Наша VK группа: https://vk.com/club212689146
Подписывайтесь, только актуальные сообщения о бирже, наши специалисты готовы ответить на любые вопросы по фондовому рынку или по брокеру ФИНАМ
Наш Телеграм канал: https://news.1rj.ru/str/HopeAndPallas
Только актуальные новости…
Подписывайтесь, только актуальные сообщения о бирже, наши специалисты готовы ответить на любые вопросы по фондовому рынку или по брокеру ФИНАМ
Наш Телеграм канал: https://news.1rj.ru/str/HopeAndPallas
Только актуальные новости…
Почему так сильно греются чипы в CPU/GPU/RAM, что даже требуют отдельного охлаждения?
Anonymous Quiz
5%
В них есть движущиеся части, совершающие работу
45%
Через них протекают сильные токи, разогревающие кремний
16%
Виной энергия броуновского движения атомов кремния
34%
В регистрах процессоров и банках памяти постоянно стираются биты информации, что и нагревает чипы
#marketingbullshit
Всё-таки как иногда "маркетинговая херня" прокрадывается в документы даже серьёзных компаний.
Мне лично неизвестны СУБД, выполняющиеся на GPU, а Вам? Так и представляю себе неосведомлённого клиента, который купил сервера на GPU чтобы получить "high performance database".
Уточню, СУБД в промышленной эксплуатации и на реальных проектах. Про экспериментальные ветки типа PgStrom я читал.
Всё-таки как иногда "маркетинговая херня" прокрадывается в документы даже серьёзных компаний.
Мне лично неизвестны СУБД, выполняющиеся на GPU, а Вам? Так и представляю себе неосведомлённого клиента, который купил сервера на GPU чтобы получить "high performance database".
Уточню, СУБД в промышленной эксплуатации и на реальных проектах. Про экспериментальные ветки типа PgStrom я читал.