Data360.ru – Telegram
Data360.ru
86 subscribers
83 photos
3 videos
50 files
800 links
AI & Big Data & Machine Learning & Advanced Analytics- подборка интересных материалов с трендами продвинутой аналитики, реальными кейсами применения.

Канал запущен в поддержку компании Data360.ru
Download Telegram
Ускорение развития ИИ может привести к непредсказуемым последствиям
ИИ — «потенциально катастрофическая» угроза 🤬

Недавний пост от OpenAI на их официальном сайте немного взбудоражил людей. Компания не просто делится новыми достижениями, но и бьет тревогу: супер-ИИ может стать настоящей угрозой для человечества. Это не просто пустые слова, а серьезные предупреждения о рисках, которые мы, возможно, будем сталкиваться уже в ближайшие годы.

Авторы поста акцентируют внимание на том, что ИИ развивается с такими темпами, что скоро может «переплюнуть» человека по умственным способностям. Уже сейчас некоторые модели ИИ демонстрируют уровень интеллекта, сопоставимый с человеческим, и, что важно, стоимость единицы интеллекта в год падает аж в 40 раз. Это значит, что стоимость создания мощного ИИ будет снижаться, а его возможности расти с каждым годом.

Так что, если мы будем продолжать двигаться в том же темпе, в ближайшем будущем вполне возможно столкнуться с ИИ, который не только будет понимать, но и предсказывать, и возможно даже, развивать свои собственные алгоритмы обучения.

В ответ на эти риски OpenAI предлагает несколько важных шагов для улучшения безопасности:


• Универсальные стандарты безопасности для всех ведущих лабораторий ИИ, чтобы не было «лазеек».
• Надзор за ИИ по уровням: от базовых моделей до более сложных. Чем мощнее ИИ, тем больше контроля нужно.
• Экосистема устойчивости, подобная кибербезопасности: создание протоколов, команд реагирования, мониторинга, чтобы быть готовыми к любым непредвиденным ситуациям.
• Регулярные измерения влияния ИИ на экономику и занятость. Ведь ИИ может повлиять не только на рабочие места, но и на весь рынок.
• Сделать доступ к продвинутому ИИ базовой утилитой, но только в рамках, которые общество примет как безопасные.

Особое внимание — публичной подотчетности разработчиков ИИ. Это, по мнению OpenAI, поможет избежать хаоса и ускоренной разработки без должного контроля. В США, например, призывают к тому, чтобы регуляция не была «лоскутным одеялом», а действовала на уровне всего государства.


В одной стороны, нам нужно прогрессировать, и без ИИ уже не обойтись. С другой — если с ним не справиться вовремя, он может стать угрозой. Возможно, стоит уделить больше внимания именно безопасности, чтобы использовать ИИ в мирных целях, а не позволить ему стать разрушительным инструментом.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
Думали инновации закончились а вот и нет! What next? Квантовые вычисления!!!
☁️ МГТУ и «Росатом» открыли доступ к облачной квантовой платформе

Специалисты МГТУ им. Баумана, ВНИИА им. Духова и «Росатома» запустили облачную платформу Bauman Octillion. Она позволяет удаленно проводить эксперименты на реальных квантовых сопроцессорах.

🔜Пользователям предоставляется круглосуточный доступ к квантовому сопроцессору SnowDrop 4Q на базе четырех сверхпроводниковых кубитов. Точность выполнения однокубитных операций на нем составляет 99,89%, двухкубитных — 99,1%.

☝️С 10 по 20 декабря будет открыт тестовый доступ к более мощному устройству — SnowDrop 8Q с восемью кубитами и повышенной точностью. Это позволит ученым тестировать более сложные алгоритмы.

Подпишитесь на Электричку
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ в России тренды и перспективы.pdf
16 MB
Новое исследование ИИ в России - "Ключевой запрос
пользователей — прикладная полезность: важнее, чтобы нейросети
помогали в повседневных задачах и были встроены в привычные
сервисы, чем демонстрировали успехи на абстрактных
бенчмарках. Именно продуктовая интеграция ИИ в существующие
пользовательские сценарии является драйвером развития рынка."
Немного субботнего юмора, но не удивлюсь если сейчас многие компании проходят через это и именно так и измеряют эффективность…
Forwarded from iFastFood
В прошлом квартале я внедрил Microsoft Copilot для 4000 сотрудников.

30 долларов за рабочее место в месяц.

1,4 миллиона долларов в год.

Я назвал это «цифровой трансформацией».

Совету директоров понравилась эта фраза.

Они одобрили ее за одиннадцать минут.

Никто не спросил, что она на самом деле будет делать.

В том числе и я.

Я сказал всем, что это «увеличит производительность в 10 раз».

Это не реальная цифра.

Но звучит как реальная.

Отдел кадров спросил, как мы будем измерять это 10-кратное увеличение.

Я ответил, что будем «использовать аналитические панели».

Они перестали задавать вопросы.

Через три месяца я проверил отчеты об использовании.

47 человек открыли его.

12 использовали их более одного раза.

Один из них был я.

Я использовал их, чтобы обобщить электронное письмо, которое я мог прочитать за 30 секунд.

На это ушло 45 секунд.

Плюс время, которое понадобилось, чтобы исправить галлюцинации.

Но я назвал это «успехом пилотного проекта».

Успех означает, что пилотный проект не потерпел явного провала.

Финансовый директор спросил о рентабельности инвестиций.

Я показал ему график.

График шел вверх и вправо.

Он измерял «возможности ИИ».

Я придумал этот показатель.

Он одобрительно кивнул.

Теперь мы «имеем возможности ИИ».

Я не знаю, что это значит.

Но это есть в нашей презентации для инвесторов.

Старший разработчик спросил, почему мы не используем Claude или ChatGPT.

Я ответил, что нам нужна «безопасность корпоративного уровня».

Он спросил, что это значит.

Я ответил: «соответствие требованиям».

Он спросил, каким требованиям.

Я ответил: «всем».

Он выглядел скептически.

Я назначил ему «беседу о карьерном росте».

Он перестал задавать вопросы.

Microsoft прислала команду для изучения кейса.

Они хотели представить нас как историю успеха.

Я сказал им, что мы «сэкономили 40 000 часов».

Я рассчитал это число, умножив количество сотрудников на число, которое я придумал.

Они не проверяли его.

Они никогда не проверяют.

Теперь мы на сайте Microsoft.

«Глобальная компания достигает 40 000 часов прироста производительности с Copilot».

Генеральный директор поделился этим на LinkedIn.

Он получил 3000 лайков.

Он никогда не пользовался Copilot.

Ни один из руководителей не пользовался.

У нас есть исключение.

«Стратегическая направленность требует минимального отвлечения внимания на цифровые технологии».

Я написал эту политику.

Лицензии продлеваются в следующем месяце.

Я прошу о расширении.

Еще 5000 мест.

Мы не использовали первые 4000.

Но на этот раз мы «будем стимулировать внедрение».

Внедрение означает обязательное обучение.

Обучение означает 45-минутный вебинар, который никто не смотрит.

Но его завершение будет отслеживаться.

Завершение — это показатель.

Показатели попадают в дашборды.

Дашборды попадают в презентации для совета директоров.

Презентации для совета директоров помогают мне получить повышение.

К третьему кварталу я буду старшим вице-президентом.

Я до сих пор не знаю, что делает Copilot.

Но я знаю, для чего он нужен.

Он нужен, чтобы показать, что мы «инвестируем в ИИ».

Инвестиции означают расходы.

Расходы означают обязательства.

Обязательства означают, что мы серьезно относимся к будущему.

Будущее — это то, что я говорю.

До тех пор, пока график идет вверх и вправо.
Надеюсь это не просто научный проект но и имеющий практическую пользу, такой проект доказывает что наша наука может быть очень полезной и востребованной.
👍1
Forwarded from Data Secrets
Бывший Head of Deep Learning Engineering в DeepMind Дэвид Бадден внезапно заявил, что он решит проблему Навье-Стокса до конца года

Напоминаем, что это одна из проблем тысячелетия и, кстати, именно та задача, над которой Google совместно с ведущими математиками мира и ИИ бьются уже несколько лет (подробнее о сути задачи и о подвижках гугла писали тут).

Так вот: вчера Бадден выложил черновик доказательства в Lean и скрин документа, подтверждающего его спор с Маркусом Хаттером на то, что в течение оставшегося 2025 он выложит на архив полноценное доказательство проблемы.

Поспорили, ни много ни мало, на 10 тысяч долларов. Кстати, если Дэвид все-таки выиграет (???), он получит за решение еще и миллион долларов от Clay Mathematics Institute.

На Manifold, кстати, люди уже активно ставят ставки на этот спор. Пока 97% депают против Дэвида 😔
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
Nvidia купила Groq – тот самый стартап бывших инженеров Google, в котором разрабатывали чипы специально для LLM

Интересно, что еще полтора года назад стартап оценивался только в 2.8 миллиардов долларов, а сегодня Nvidia покупает его за 20 миллиардов.

Причем сделка представлена даже не как полноценная покупка, а как неисключительное лицензирование технологий и активов.

То есть Nvidia приобретает активы Groq, включая права на использование тех самых процессоров LPU (Language Processing Unit), но, например, облачный сервис GroqCloud остается независимым и продолжит работать под руководством нового CEO.

Предыдущий директор Groq Джонатан Росс (он же основатель, который раньше работал над TPU в Google), а также многие другие сотрудники, включая почти всю верхушку, переходят в Nvidia.

Это, кстати, крупнейшая сделка в истории Nvidia. Их предыдущим максимумом были приобретения вроде Mellanox за $7 млрд в 2019 году.