https://youtu.be/-PFIkkwWdnM?si=DlxRWw0YFQIdGiD5
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Kolmogorov-Arnold Networks: MLP vs KAN, Math, B-Splines, Universal Approximation Theorem
In this video, I will be explaining Kolmogorov-Arnold Networks, a new type of network that was presented in the paper "KAN: Kolmogorov-Arnold Networks" by Liu et al.
I will start the video by reviewing Multilayer Perceptrons, to show how the typical Linear…
I will start the video by reviewing Multilayer Perceptrons, to show how the typical Linear…
Представлен обзор 62 методов обучения с учетом шумных меток, категоризированных по пяти группам.
Авторы провели систематическое сравнение шести характеристик для оценки их эффективности. Осветили методы оценки шума и используемые метрики оценки.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤🔥1
Обсуждаются основные концепции, алгоритмы и статистическая теория обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6 3
Прочитал любопытное исследование про распространение ИИ в науке. За последние 40 лет использование ИИ в научных публикациях выросло в 13 раз! Среди юзеров-лидеров — инженеры, экологи и медики 👏
Но есть нюанс: хотя исследования с ИИ и становятся более распространенными, они как бы существуют отдельно от традиционных исследований. Как масло в воде — вроде везде, но не смешивается.
В общем, видим, как ИИ захватывает науку, но пока не очень хорошо интегрируется. Авторы изучили около 80 млн публикаций, чтобы прийти к таким выводам.
Если интересно, полное исследование можно найти здесь.
Но есть нюанс: хотя исследования с ИИ и становятся более распространенными, они как бы существуют отдельно от традиционных исследований. Как масло в воде — вроде везде, но не смешивается.
В общем, видим, как ИИ захватывает науку, но пока не очень хорошо интегрируется. Авторы изучили около 80 млн публикаций, чтобы прийти к таким выводам.
Если интересно, полное исследование можно найти здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7 3👍2💯1
Обсуждаются методы предварительного обучения, контекстуализированные эмбеддинги, и использование баз данных для улучшения работы моделей при генерации текста.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤🔥2
Cтатья объясняет концепцию ранней остановки, ее плюсы и минусы, реализацию на Scikit-Learn и TensorFlow.
Она охватывает смещение и разброс, концепции переобучения и недообучения, регуляризацию, и дает примеры применения ранней остановки как в классических моделях машинного обучения (Scikit-Learn), так и в глубоком обучении (TensorFlow).
Она охватывает смещение и разброс, концепции переобучения и недообучения, регуляризацию, и дает примеры применения ранней остановки как в классических моделях машинного обучения (Scikit-Learn), так и в глубоком обучении (TensorFlow).
👍5❤🔥2 2
Рассматриваются традиционные алгоритмы маршрутизации, интеграция ML для учета времени суток и погодных условий, и использование кодирования признаков и самообучающихся архитектур для повышения точности прогнозов.
https://codecompass00.substack.com/p/uber-billion-dollar-problem-predicting-eta
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6👍5🔥4 1
Обсуждаются различные методы позиционного кодирования, включая обучаемые векторы и роторные кодировки, которые улучшают обработку длинных контекстов.
https://codecompass00.substack.com/p/positional-encoding-transformers
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3❤🔥2
Любопытный подкаст с Francois Chollet (создатель Keros). Парни обсудили ARC Prize на $1🍋, а именно:
Предпосылки и значимость соревнования ARC.
Сравнение ARC с другими тестами ИИ.
Проблема закрытости передовых исследований.
Возможные подходы к решению задач ARC.
Роль масштабирования моделей и "базовых знаний" в ИИ.
Влияние подобных конкурсов на развитие общего ИИ.
https://youtu.be/UakqL6Pj9xo?si=J9eiX4Z8ph46gwD_
Предпосылки и значимость соревнования ARC.
Сравнение ARC с другими тестами ИИ.
Проблема закрытости передовых исследований.
Возможные подходы к решению задач ARC.
Роль масштабирования моделей и "базовых знаний" в ИИ.
Влияние подобных конкурсов на развитие общего ИИ.
https://youtu.be/UakqL6Pj9xo?si=J9eiX4Z8ph46gwD_
YouTube
Francois Chollet - Why The Biggest AI Models Can't Solve Simple Puzzles
Here is my conversation with Francois Chollet and Mike Knoop on the $1 million ARC-AGI Prize they're launching today.
I did a bunch of socratic grilling throughout, but Francois’s arguments about why LLMs won’t lead to AGI are very interesting and worth…
I did a bunch of socratic grilling throughout, but Francois’s arguments about why LLMs won’t lead to AGI are very interesting and worth…
❤🔥5 3
Рассматриваются основные метрики оценки для NLP моделей, включая BLEU, NIST, METEOR, ROUGE, CIDEr, SPICE и BERTscore. Каждая метрика направлена на оценку качества перевода, суммаризации или других задач обработки естественного языка, используя различные подходы к сравнению гипотезы с эталоном, включая учет precision, recall, семантической аналогии и contextual embedding.
👍6
Подробное введение в LSTM сети, охватывая их уникальную архитектуру, роль ворот и важность функций активации tanh и sigmoid.
Книга также содержит практические примеры использования LSTM сетей в Python с использованием TensorFlow для различных задач, включая обработку естественного языка и прогнозирование временных рядов.
https://medium.com/@palashm0002/understanding-and-implementing-lstm-networks-41ca52495108
Книга также содержит практические примеры использования LSTM сетей в Python с использованием TensorFlow для различных задач, включая обработку естественного языка и прогнозирование временных рядов.
https://medium.com/@palashm0002/understanding-and-implementing-lstm-networks-41ca52495108
❤🔥4🔥2 1
Авторы предлагают оптимальный блок слоев для обрезки на основе их сходства и применяют квантизаци и адаптеры низкого ранга, что позволяет значительно экономить вычислительные ресурсы и улучшать задержки при выводе.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5💯2❤🔥1
Исследование анализирует, как внедрение синтетических данных влияет на масштабирование нейронных моделей.
Авторы разрабатывают теоретическую модель для предсказания возможного деградирования моделей при изменении масштабных законов, что подтверждается экспериментами с использованием трансформера и Llama2.
Авторы разрабатывают теоретическую модель для предсказания возможного деградирования моделей при изменении масштабных законов, что подтверждается экспериментами с использованием трансформера и Llama2.
👍6
Приводятся примеры инфраструктурных стэков от известных венчурных компаний, критикуется доминирование векторного поиска и предлагаются альтернативные методы поиска.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
В статье обсуждаются проблемы концептуального дрейфа, который возникает, когда изменяется распределение данных, на основе которых обучена модель.
Представлены методы мониторинга и предотвращения дрейфа, такие как онлайн-обучение, периодическое переобучение моделей, использование ансамблевых методов и отбрасывание признаков.
Также описаны лучшие практики, включающие сбор и предобработку данных, их разметку, обнаружение дрейфа и его устранение.
Представлены методы мониторинга и предотвращения дрейфа, такие как онлайн-обучение, периодическое переобучение моделей, использование ансамблевых методов и отбрасывание признаков.
Также описаны лучшие практики, включающие сбор и предобработку данных, их разметку, обнаружение дрейфа и его устранение.
❤🔥6💯2 1
Статья охватывает основы Retrieval Augmented Generation, её применение для улучшения LLM, и решения проблем, связанных с генерацией некорректной информации.
Автор обсуждает, как интеграция методов извлечения информации может повысить точность и эффективность ИИ-ассистентов.
Автор обсуждает, как интеграция методов извлечения информации может повысить точность и эффективность ИИ-ассистентов.
👍6❤🔥2
Исследование рассматривает MoE-основанные большие языковые модели и их оптимальную настройку для инференции.
Авторы изучают зависимость производительности модели от её размера, объёма данных и числа экспертов в MoE, предлагая улучшенные методы настройки для достижения эффективности на этапе инференции при сохранении высокой производительности.
Авторы изучают зависимость производительности модели от её размера, объёма данных и числа экспертов в MoE, предлагая улучшенные методы настройки для достижения эффективности на этапе инференции при сохранении высокой производительности.
👍6 3❤🔥2
Обзор применения Dropout регуляризации для борьбы с переобучением в моделях машинного обучения.
В статье рассматривается понятие переобучения и его важность, а также объясняется, как работает Dropout в нейронных сетях и как его можно применить к моделям машинного обучения на примере MLP, включая выбор оптимального коэффициента Dropout.
В статье рассматривается понятие переобучения и его важность, а также объясняется, как работает Dropout в нейронных сетях и как его можно применить к моделям машинного обучения на примере MLP, включая выбор оптимального коэффициента Dropout.
👍6❤🔥3🔥2
Исследуются методы визуализации скрытых состояний языковых моделей Transformer с целью понять, как модели генерируют текст. Статья демонстрирует визуализации ранжирования токенов, логитов и вероятностей softmax на разных слоях моделей, таких как GPT-2 XL. Цель этих визуализаций - раскрыть принципы принятия решений моделью и процесс её работы от входных данных к выходным токенам через каждый слой модели.
👍6❤🔥3🔥2
Парни создали объединённое ядро CUDA, которое деквантовывает значения fp6 до fp16 перед выполнением обычного умножения матриц fp16 с накопителями fp32. Это аналогично существующим ядрам для низкобитового вывода 4 бит и 8 бит, но с новым сложным форматом.
FP6-LLM позволяет выполнять вывод моделей быстрее в режиме, ограниченном пропускной способностью памяти (малые размеры пакетов), используя меньшие веса.
link
FP6-LLM позволяет выполнять вывод моделей быстрее в режиме, ограниченном пропускной способностью памяти (малые размеры пакетов), используя меньшие веса.
link
❤🔥6