Рубрика поддержи друзей 🌝
Собственно, наш друг занимается торговлей, поэтому просим вас поддержать.
По ссылке детский надувной круг.
Как поддержать?
- купить
- оставить отзыв
- сделать репост
https://ozon.ru/t/7wJRRN2
Собственно, наш друг занимается торговлей, поэтому просим вас поддержать.
По ссылке детский надувной круг.
Как поддержать?
- купить
- оставить отзыв
- сделать репост
https://ozon.ru/t/7wJRRN2
❤🔥5🔥2 1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤🔥3
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤🔥1👍1
В данной статье предложены методы subbagging для оценки больших данных с ограничениями по памяти. Исследованы теоретические свойства, показано, что subbagging оценка может достичь √N-состоятельности и асимптотической нормальности при определенных условиях. Проведены эксперименты симуляции для демонстрации производительности на конечных выборках.
https://arxiv.org/pdf/2103.00631.pdf
https://arxiv.org/pdf/2103.00631.pdf
👍4❤🔥1🔥1
Автор разбирает подход к обучению нейронок, при котором вместо использования планировщиков скорости обучения предлагается увеличивать размер батча. Автор показывает, что это может привести к более быстрой сходимости и не худшим результатам обучения.
Темы статьи включают общие проблемы нейронных сетей, влияние размера батча на обобщающую способность модели и сравнение методов регулирования скорости обучения и размера батча.
Темы статьи включают общие проблемы нейронных сетей, влияние размера батча на обобщающую способность модели и сравнение методов регулирования скорости обучения и размера батча.
🔥3❤🔥1 1
Исследуются концепции центральности по:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥3 3
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6 2⚡1❤🔥1
https://vk.com/wall-94208167_7725
https://news.1rj.ru/str/dataminingteam/1795
https://vk.com/wall-94208167_7722
https://vk.com/wall-94208167_7733
https://news.1rj.ru/str/dataminingteam/1790
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5👍2🔥2
https://youtu.be/-PFIkkwWdnM?si=DlxRWw0YFQIdGiD5
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Kolmogorov-Arnold Networks: MLP vs KAN, Math, B-Splines, Universal Approximation Theorem
In this video, I will be explaining Kolmogorov-Arnold Networks, a new type of network that was presented in the paper "KAN: Kolmogorov-Arnold Networks" by Liu et al.
I will start the video by reviewing Multilayer Perceptrons, to show how the typical Linear…
I will start the video by reviewing Multilayer Perceptrons, to show how the typical Linear…
Представлен обзор 62 методов обучения с учетом шумных меток, категоризированных по пяти группам.
Авторы провели систематическое сравнение шести характеристик для оценки их эффективности. Осветили методы оценки шума и используемые метрики оценки.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤🔥1
Обсуждаются основные концепции, алгоритмы и статистическая теория обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6 3
Прочитал любопытное исследование про распространение ИИ в науке. За последние 40 лет использование ИИ в научных публикациях выросло в 13 раз! Среди юзеров-лидеров — инженеры, экологи и медики 👏
Но есть нюанс: хотя исследования с ИИ и становятся более распространенными, они как бы существуют отдельно от традиционных исследований. Как масло в воде — вроде везде, но не смешивается.
В общем, видим, как ИИ захватывает науку, но пока не очень хорошо интегрируется. Авторы изучили около 80 млн публикаций, чтобы прийти к таким выводам.
Если интересно, полное исследование можно найти здесь.
Но есть нюанс: хотя исследования с ИИ и становятся более распространенными, они как бы существуют отдельно от традиционных исследований. Как масло в воде — вроде везде, но не смешивается.
В общем, видим, как ИИ захватывает науку, но пока не очень хорошо интегрируется. Авторы изучили около 80 млн публикаций, чтобы прийти к таким выводам.
Если интересно, полное исследование можно найти здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7 3👍2💯1
Обсуждаются методы предварительного обучения, контекстуализированные эмбеддинги, и использование баз данных для улучшения работы моделей при генерации текста.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤🔥2
Cтатья объясняет концепцию ранней остановки, ее плюсы и минусы, реализацию на Scikit-Learn и TensorFlow.
Она охватывает смещение и разброс, концепции переобучения и недообучения, регуляризацию, и дает примеры применения ранней остановки как в классических моделях машинного обучения (Scikit-Learn), так и в глубоком обучении (TensorFlow).
Она охватывает смещение и разброс, концепции переобучения и недообучения, регуляризацию, и дает примеры применения ранней остановки как в классических моделях машинного обучения (Scikit-Learn), так и в глубоком обучении (TensorFlow).
👍5❤🔥2 2
Рассматриваются традиционные алгоритмы маршрутизации, интеграция ML для учета времени суток и погодных условий, и использование кодирования признаков и самообучающихся архитектур для повышения точности прогнозов.
https://codecompass00.substack.com/p/uber-billion-dollar-problem-predicting-eta
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6👍5🔥4 1
Обсуждаются различные методы позиционного кодирования, включая обучаемые векторы и роторные кодировки, которые улучшают обработку длинных контекстов.
https://codecompass00.substack.com/p/positional-encoding-transformers
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3❤🔥2
Любопытный подкаст с Francois Chollet (создатель Keros). Парни обсудили ARC Prize на $1🍋, а именно:
Предпосылки и значимость соревнования ARC.
Сравнение ARC с другими тестами ИИ.
Проблема закрытости передовых исследований.
Возможные подходы к решению задач ARC.
Роль масштабирования моделей и "базовых знаний" в ИИ.
Влияние подобных конкурсов на развитие общего ИИ.
https://youtu.be/UakqL6Pj9xo?si=J9eiX4Z8ph46gwD_
Предпосылки и значимость соревнования ARC.
Сравнение ARC с другими тестами ИИ.
Проблема закрытости передовых исследований.
Возможные подходы к решению задач ARC.
Роль масштабирования моделей и "базовых знаний" в ИИ.
Влияние подобных конкурсов на развитие общего ИИ.
https://youtu.be/UakqL6Pj9xo?si=J9eiX4Z8ph46gwD_
YouTube
Francois Chollet - Why The Biggest AI Models Can't Solve Simple Puzzles
Here is my conversation with Francois Chollet and Mike Knoop on the $1 million ARC-AGI Prize they're launching today.
I did a bunch of socratic grilling throughout, but Francois’s arguments about why LLMs won’t lead to AGI are very interesting and worth…
I did a bunch of socratic grilling throughout, but Francois’s arguments about why LLMs won’t lead to AGI are very interesting and worth…
❤🔥5 3