🌋 ТЕСТИМ QWEN CHAT: AI-ВИДЕОГЕНЕРАТОР КОТОРЫЙ ПОРВАЛ ВСЕХ ЗА $0! 🌋
Привет, синтеты! Сегодня у нас МЕГА-ТЕСТ нового видеогенератора от Alibaba, который ШОКИРОВАЛ индустрию!
P.S. Для скептиков: в тесте Qwen набрал 10 очков, а ближайший конкурент всего 2!
P.P.S. В следующей статье: как я пытался сгенерировать свадебное видео и случайно создал фильм ужасов!
#QwenChat #БесплатныйAI #AlibabaРвётВсех #AIвидео #НахаляввуИкачественно
Привет, синтеты! Сегодня у нас МЕГА-ТЕСТ нового видеогенератора от Alibaba, который ШОКИРОВАЛ индустрию!
🧠 ЧТО ЗА ЗВЕРЬ:
ОСНОВНЫЕ ФИШКИ:
- Абсолютно бесплатный
- Без лимитов (ПОКА ЧТО!)
- Делает видео лучше платных
- РАБОТАЕТ ПРЯМО СЕЙЧАС!
🔬 ТЕСТ-ДРАЙВ:
СРАВНИЛИ С ТОПАМИ:
- Pix Verse 3.5 (новенький!)
- Kling 1.6 Pro (дорогой!)
- Hailuo Minimax (пафосный!)
И... QWEN ПОРВАЛ ВСЕХ!
⚡️ В ЧЁМ КРУТ:
ЛУЧШИЕ СЦЕНЫ:
- Зомби в торговом центре
- Драконы над городом
- Разрезание помидоров (ДА, СЕРЬЁЗНО!)
- Балерина на льдине (БЕЗ ЛИШНИХ РУК!)
💊 ГДЕ СЛАБЕНЬКИЙ:
КОСЯКИ ЕСТЬ:
- Текст в видео хромает
- Селебрити не узнаёт (Уилл Смит = какой-то Дональд)
- Иногда люди ходят как крабы
- НО ЭТО ВСЁ ФИГНЯ ПО СРАВНЕНИЮ С ПЛЮСАМИ!
🎯 БОНУСЫ:
ДОПОЛНИТЕЛЬНЫЕ ВОЗМОЖНОСТИ:
- Генерит картинки
- Умеет в чат-бота
- Пишет код
- И ВСЁ ЭТО БЕСПЛАТНО!
P.S. Для скептиков: в тесте Qwen набрал 10 очков, а ближайший конкурент всего 2!
P.P.S. В следующей статье: как я пытался сгенерировать свадебное видео и случайно создал фильм ужасов!
#QwenChat #БесплатныйAI #AlibabaРвётВсех #AIвидео #НахаляввуИкачественно
🔥5❤1🌭1
БИТВА НЕЙРОНОК 2025: DEEPSEEK VS QWEN - ЭПИЧНАЯ ЗАРУБА! 🤖
Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀
DeepSeek: 7/10 - Умный, но с характером
Qwen: 6/10 - Быстрый, но ленивый
P.S. А вы за кого - за математически неграмотного трудягу или за ленивого спринтера? Пишите в комментах! 🎮
#НейронныеВойны2025 #DeepSeekVSQwen #AIFailz #ТехноБлог #КтоКогоТупее
Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀
🎯 DEEPSEEK - САМОУВЕРЕННЫЙ ГИГАЧАД:
🔥 ТОП ФИЧИ:
Хавает код на 2800 строк (когда не падает)
Режим "Глубокое мышление" - можно подглядеть как он тупит думает
В LaTeX умеет, математику любит (но иногда путает)
С VASP'ом дружит (прям технарь!)
💩 ФЕЙЛЫ:
Путает 83 < 89 (математика на минималках)
Сервер постоянно в "бизи" улетает
С русским языком - швах (English, motherflucker, do you speak it?!)
Иногда просто троит, потому что МОЖЕТ 😅
🤖 QWEN - БЫСТРЫЙ, НО ЛЕНИВЫЙ:
😎 ПЛЮСЫ:
10К символов хавает (когда не бомбит)
В коротких диалогах шустрый
По-русски шпрехает без запинки
🤡 МИНУСЫ:
Код больше 10К строк = "многа букав, не асилил"
В копирайтинге - кэп очевидность
С VASP'ом на "вы" и через забор
🏆 ЭПИЧНЫЕ МОМЕНТЫ:
1️⃣ БАТТЛ С ФРУКТАМИ:
CopyDeepSeek: "Гранат - 83 ккал, Банан - 89 ккал...
А в списке банан ПЕРЕД гранатом, потому что... А ПОЧЕМУ БЫ И НЕТ!" 🍌
2️⃣ VASP ЧЕЛЛЕНДЖ:
DeepSeek: выдаёт формулы в LaTeX со сложным видом
Qwen: "Давайте разберем пошагово... ушёл в закат" 💀
3️⃣ КОД БАТТЛ:
DeepSeek: "2800 строк? ИЗИ! падает в обморок"
Qwen: "Более 10К? Извините, я пас!" 🏃♂️
🤔 ИТОГОВЫЙ СЧЁТ:
DeepSeek: 7/10 - Умный, но с характером
Qwen: 6/10 - Быстрый, но ленивый
🔮 ЧТО ДАЛЬШЕ?
Говорят, DeepSeek можно прикрутить вместо ChatGPT, поменяв только url и apikey! Звучит как "поменяй масло - получи Феррари"! 😂
🧠 ВЫВОД:
DeepSeek - для хардкорных технарей с крепкими нервами
Qwen - для тех, кто любит "быстро, но не очень"
P.S. А вы за кого - за математически неграмотного трудягу или за ленивого спринтера? Пишите в комментах! 🎮
#НейронныеВойны2025 #DeepSeekVSQwen #AIFailz #ТехноБлог #КтоКогоТупее
👍6🌭2❤1🤔1🫡1
🌋 АТТРАКЦИОН НЕВИДАННОЙ ЩЕДРОСТИ: PIKA 2.1 И MINIMAX СНОВА В ДЕЛЕ! 🌋
Привет, синтеты! Сегодня разбираем ГОРЯЧИЕ НОВИНКИ в мире AI-видео - свежий апдейт Pika Labs и новый режим директора в Minimax!
PIKA 2.1
MINIMAX
P.S. Для пользователей Pika 2.0: пора обновляться, ваши пираты теперь не будут разворачиваться спиной к камере!
P.P.S. В следующей статье: как я случайно создал сериал про викинга-полицейского с помощью Ingredients!
#Pika21 #MinimaxDirector #AIвидео #БабушкаСОгнеметом #ВикингКоп
Привет, синтеты! Сегодня разбираем ГОРЯЧИЕ НОВИНКИ в мире AI-видео - свежий апдейт Pika Labs и новый режим директора в Minimax!
PIKA 2.1
MINIMAX
🧠 PIKA 2.1 - ЧТО НОВОГО:
АПГРЕЙДЫ:
1080p (НАКОНЕЦ-ТО!)
Четкие детали как в IMAX
Движения как в жизни
Люди больше не мутанты!
🔬 ГДЕ ПРОКАЧАЛИСЬ:
НОВЫЕ ФИШКИ:
Руки больше не плавятся
Пальцы все на месте
Стабильность на высоте
ДАЖЕ БАБУШКА С ОГНЕМЁТОМ ПОЛУЧИЛАСЬ!
⚡️ РЕЖИМ ДИРЕКТОРА В MINIMAX:
КАК ЭТО РАБОТАЕТ:
Управление камерой в промпте
Три пресета на выбор
Движение слева-справа
СНИМАЕМ КАК СПИЛБЕРГ!
💊 ЗАБАВНЫЕ ФИШКИ:
НЕОЖИДАННЫЕ БОНУСЫ:
Все персонажи 70-х курят
Даже машины дымят!
Викинги в сериалах про копов
СЛУЧАЙНЫЙ БРЮС ЛИ-ТЕРМИНАТОР!
P.S. Для пользователей Pika 2.0: пора обновляться, ваши пираты теперь не будут разворачиваться спиной к камере!
P.P.S. В следующей статье: как я случайно создал сериал про викинга-полицейского с помощью Ingredients!
#Pika21 #MinimaxDirector #AIвидео #БабушкаСОгнеметом #ВикингКоп
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Демонстрация возможностей MINIMAX - Director
👍3
Техножнец
БИТВА НЕЙРОНОК 2025: DEEPSEEK VS QWEN - ЭПИЧНАЯ ЗАРУБА! 🤖 Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀 🎯 DEEPSEEK - САМОУВЕРЕННЫЙ ГИГАЧАД: 🔥 ТОП ФИЧИ: Хавает код…
Насчет сравнения. Сегодня посижу с архитектурой RUKALLAMA - покажу че к чему.
👍3
🚀 RUKALLAMA: ЧЕСТНЫЙ ТЕХНИЧЕСКИЙ РАЗБОР БЕЗ ПРИКРАС
Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!!
Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке.
Русский язык для неё будет родной, ограничений в плане языков нет и не должно быть (обязательно дополним другими языками)
Учится на малых данных (подтверждено)
Адаптируется к изменениям (проверено)
Стабильно держит структуру языка (доказано)
Да, мы использовали маркетинговые метрики для сравнения эффективности. Но сама технология реально работает и показывает результаты. Просто без лишнего хайпа.
БОЛЕЕ ПОДРОБНАЯ МЕТРИКА:
🧮 СЧИТАЕМ ЭФФЕКТИВНОСТЬ:
P.S. Да, мы немного перегнули с цифрами в маркетинге... Но попробуйте найти другую модель, которая научится русскому на 82MB данных! 😎
P.P.S. Если кто-то говорит, что это убьёт большие модели - не верьте! Это другой класс решений для других задач!
#RUKALLAMA #ЧестныйОбзор #НейроТехнологии #БезХайпа
Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!!
Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке.
Русский язык для неё будет родной, ограничений в плане языков нет и не должно быть (обязательно дополним другими языками)
🧮 ЧЕСТНАЯ МАТЕМАТИКА ЭФФЕКТИВНОСТИ:
Сравнение с GPT-2 (базовая линия):
- Данные: 40GB vs 0.182GB (×220)
- GPU память: 256GB vs 8GB (×32)
- GPU количество: 8 vs 1 (×8)
- Эпохи: 500 vs 183 (×2.7)
Общая эффективность ≈ 34,000х
НО! Это только для этапа "грамматической шизофазии"!
⚡️ РЕАЛЬНЫЕ ТЕХНИЧЕСКИЕ ФИШКИ:
Сплайны Колмогорова-Арнольда:
Адаптивные преобразования
Эффективная работа с малыми данными
Устойчивость к "забыванию"
RoPE имплементация:
Стабильное позиционное кодирование
Помогает при обновлении токенизатора
Поддерживает длинные последовательности
🎯 ЧТО РЕАЛЬНО УМЕЕТ:
Учится на малых данных (подтверждено)
Адаптируется к изменениям (проверено)
Стабильно держит структуру языка (доказано)
🔬 ТЕКУЩИЕ ОГРАНИЧЕНИЯ (БЕЗ ПРИКРАС):
Технические:
Пока на уровне "грамматической шизофазии"
Нет реального понимания смысла
Ограничения по контексту
Практические:
Требуется instruction tuning
Нужна доработка токенизатора
Зависимость от качества данных
📈 РЕАЛЬНЫЕ ПЕРСПЕКТИВЫ:
Ближайшие:
Доработка токенизатора
Расширение до 2GB данных
Интеграция инструкций
Долгосрочные:
Специализация под задачи
Улучшение семантики
Развитие архитектуры
💡 ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:
Эксперименты с малыми данными
Специализированные задачи
Исследовательские проекты
🎯 ИТОГОВЫЙ ВЕРДИКТ:
RUKALLAMA - это не мега-супер-революция, а рабочий инструмент с конкретными преимуществами и ограничениями. Главная фишка - эффективность на малых данных и ресурсах.
⚠️ ВАЖНОЕ ЗАМЕЧАНИЕ:
Да, мы использовали маркетинговые метрики для сравнения эффективности. Но сама технология реально работает и показывает результаты. Просто без лишнего хайпа.
БОЛЕЕ ПОДРОБНАЯ МЕТРИКА:
RUKALLAMA:
- Параметры: 24M
- Датасет: 82MB + 100MB
- GPU: 1× A100 (8GB)
- Эпохи: 183
- Время на эпоху: ~2 часа
GPT-2:
- Параметры: 124M
- Датасет: 40GB
- GPU: 8× V100 (32GB каждая)
- Эпохи: ~500
- Время на эпоху: ~12 часов
🧮 СЧИТАЕМ ЭФФЕКТИВНОСТЬ:
По данным: 40GB/0.182GB = 220x
2. По памяти: (32GB × 8)/(8GB × 1) = 32x
3. По железу: 8 GPU/1 GPU = 8x
4. По эпохам: 500/183 ≈ 2.7x
Общая эффективность: 220 × 32 × 8 × 2.7 = 152,064x
ДЕЛИМ НА 4.5 (пессимистичная поправка на неточности)
= 33,792x ≈ 34,000x
⚠️ ВАЖНЫЕ ОГОВОРКИ:
Это только для этапа "грамматической шизофазии"
Сравниваем только структурное обучение
Не учитываем качество генерации
📈 СРЕДНЯЯ ЭФФЕКТИВНОСТЬ (С ПОПРАВКАМИ):
1. Ресурсная: ~15-20x
2. Временная: ~24x
3. Данные: ~200x
4. Общая средняя: ~35x (консервативная оценка)
🎯 ГДЕ МЫ РЕАЛЬНО ВЫИГРЫВАЕМ:
Малые данные = быстрее обучение
Одна карта = проще масштабировать
Сплайны = меньше параметров
🤔 ГДЕ ПРОИГРЫВАЕМ:
Качество генерации (пока что)
Глубина понимания (временно)
Размер контекста (поправляется интеграцией новых фич)
💡 ИТОГО ПО ЭФФЕКТИВНОСТИ:
Маркетинговое число: 34,000x
Реальная средняя: ~35x
Правда посередине!
P.S. Да, мы немного перегнули с цифрами в маркетинге... Но попробуйте найти другую модель, которая научится русскому на 82MB данных! 😎
P.P.S. Если кто-то говорит, что это убьёт большие модели - не верьте! Это другой класс решений для других задач!
#RUKALLAMA #ЧестныйОбзор #НейроТехнологии #БезХайпа
👍12
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋
Привет, синтеты!
Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним, кто у кого слямзил, кто тут визионер, а кто просто надувает щёки!
Да кто вам поверит, Кевин, после того, как вы рассказывали про ИИ, которые "не глючат"!
P.S. Для тех, кто думает, что это всё серьёзно: ребята, это просто ИИ-балаган. Воруют, врут, надувают щёки — всё как всегда! Зато нам есть что обсудить.
P.P.S. В следующей статье: разберём кто всё-таки слямзил и где найти сливы нейронок, пока их совсем не прикрыли!
Привет, синтеты!
Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним, кто у кого слямзил, кто тут визионер, а кто просто надувает щёки!
⚔️ КТО ТУТ ВОРУЕТ, А КТО ****?
Американцы, как обиженные дети, вопят, что китайцы сперли их ИИ-секреты. Вспомнили про какие-то левые скачки трафика в их API. Мол, DeepSeek — это ChatGPT, но с другой стороны Великой Китайской Стены. Трамповские шавки по AI лают на всю округу, что китайцы украли все биты и байты!
Но, постойте! Юзеры, которые не едят ложкой чужие басни, кричат: "А OpenAI сами-то чем лучше?! На чужих данных тренируются, как крысы на помойке, и ещё возмущаются!" Короче, все хороши, прямо как в "Санта-Барбаре"!
🧠 КЕВИН ВЕЙЛ РАССКАЗЫВАЕТ СКАЗКИ ИЗ ДАВОСА
Кевин Вейл, этот директор по продуктам из OpenAI, вещает из Давоса, как попка-дурак:
Модели-то дешевеют В 100 РАЗ! И становятся умнее и быстрее. Какая невидаль, что технологии развиваются!
Их моделька o3 уже в топ-175 программистов в мире. Аплодисменты, стоя! (но скоро её кто-нибудь тоже обгонит, не переживайте).
Скоро ChatGPT станет ВАШИМ БРАУЗЕРНЫМ ДЬЯВОЛОМ! То есть, я хотел сказать, ассистентом. ИИ всё за вас сделает, только деньги несите!
УМНЫЕ РОБОТЫ?!
Через 2-3 года?
Да кто вам поверит, Кевин, после того, как вы рассказывали про ИИ, которые "не глючат"!
🌌 STARGATE - БОЛЬШОЙ РАСПИЛ ПО АЙТИШНОМУ
OpenAI, Oracle и SoftBank решили вбухать $500 МИЛЛИАРДОВ в новую AI-инфраструктуру. Назвали это дело "Stargate". Это как строить Звезду Смерти, только из кремния и багов. Типа, без кучи бабла у них нейронки не обучаются, и их всех обгонят. Их спасут только деньги, не иначе!
💥 КТО КОГО ПЕРЕИГРАЕТ В ЭТОЙ AI-РУЛЕТКЕ?
OpenAI вопит про регулирование, типа "давайте всех построим в шеренгу". Как будто это поможет им не проиграть эту гонку. Китайцы же просто клепают новые AI, пока америкосы строчат петиции. И кто тут умный, а кто просто бюрократ?
📲 КЕВИН ВЕЙЛ О РЕГУЛИРОВАНИИ:
Кевин Вейл, между тем, говорит, что AI типа уже регулируется в медицине (ага, ага, скоро и в туалете придётся по правилам какать). Боятся, что AI станет слишком умным (ну конечно, а они-то думали что будет, как с палкой-копалкой?). Хотят, чтобы всё было по правилам, но без перегибов! Короче, хотят и рыбку съесть, и на лодке покататься.
💡 ЦУКЕРБЕРГ VS АЛЬТМАН: КТО БОТАНИК, А КТО ВИЗИОНЕР?
Кевин ещё говорит, что Цукерберг структурный, а Альтман — визионер! Ну конечно, Цукерберг, наверное, таблицу в Экселе с ценами на AI-фишки ведёт, а Альтман просто воображает, как он поработит мир. Визионер, блин, надутый индюк!
P.S. Для тех, кто думает, что это всё серьёзно: ребята, это просто ИИ-балаган. Воруют, врут, надувают щёки — всё как всегда! Зато нам есть что обсудить.
P.P.S. В следующей статье: разберём кто всё-таки слямзил и где найти сливы нейронок, пока их совсем не прикрыли!
👍11
Техножнец
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋 Привет, синтеты! Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним…
🌋 И ШО?: А ЧТО НАМ ТО ДЕЛАТЬ, КОГДА КОРПОРАЦИИ БОРЮТСЯ ЗА КУСОК ПИРОГА?! 🌋
Привет, синтеты! Сейчас мы не просто ржём над чужими войнами, мы ищем СВОЙ ПУТЬ в этом AI-хаосе.
Готовьтесь к порции цинизма, здравого смысла и планам по спасению мира (ну или хотя бы своего мозга).
Новым моделям без миллионов баксов будет сложно выжить. Как ковать блоху, когда у тебя нет кувалды? Ответ: хитрыми путями и старыми железяками!
P.S. Для скептиков: Да, мы знаем, что это звучит как безумная идея. Но когда гениальные идеи были простыми?
P.P.S. В следующей статье: мы поговорим о динамических функциях активации и о том, как именно мы будем подковывать нашу блоху!
#RuKaLLaMA #НовыйAI #ДинамикаАксонов #Гибкость #Мозг #Адаптация #ПодкуёмБлоху #СинтетическиеДанные #КорпорацииОтдыхают
Привет, синтеты! Сейчас мы не просто ржём над чужими войнами, мы ищем СВОЙ ПУТЬ в этом AI-хаосе.
Готовьтесь к порции цинизма, здравого смысла и планам по спасению мира (ну или хотя бы своего мозга).
🤔 ЧТО ПРОИСХОДИТ?
ПРОБЛЕМЫ НА ПОВЕРХНОСТИ:
"Дистилляция моделей" скоро накроется медным тазом. Ну то есть, выжимать знания из больших моделей станет рискованным бизнесом. Корпорации прикроют лавочку, это ж понятно!
Новым моделям без миллионов баксов будет сложно выжить. Как ковать блоху, когда у тебя нет кувалды? Ответ: хитрыми путями и старыми железяками!
Вся эта AI-движуха - сплошная НЕПРОДУМАННОСТЬ! Сначала тренируют на чужих данных (привет OpenAI), а потом обвиняют других в воровстве. Чистой воды цирк и рыночные игрища!
🎯 ЧТО ДЕЛАТЬ НАМ?
НАШ ПЛАН:
Делаем адаптивные модели на мизерном количестве данных. Как?! Синтезируем сами из открытых источников!
Скармливаем эту информацию АРХИТЕКТУРЕ ЛЛМ СОВЕРШЕННО НОВОГО ТИПА!
Наш RuKaLLaMA (да-да, именно так!) будет похож на МОЗГ! (не на безмозглый трансформер, которые штампуют корпорации!)
🧠 В ЧЕМ ЦИМЕС ?
НАША ФИШКА:
RuKaLLaMA будет работать как живой мозг!
Гибкость, адаптивность, понимание контекста.
Всё как у нас, надеемся!
Современные трансформеры, конечно, вдохновлены мозгом, но они — как карикатура на настоящего гения.
Мы будем ИСПОЛЬЗОВАТЬ ГИБКОСТЬ АКСОНОВ, а не статичные функции активации!
В мозгу аксоны меняются в зависимости от стимулов.
Так почему функции активации в нейронке должны быть статичны?
Даёшь динамику и гибкость!
🔬 НАУЧНЫЙ АНАЛИЗ (для тех, кто не в танке): ПРУФ
Раньше считали, что аксоны статичны. Но исследования показали: они могут МЕНЯТЬСЯ!
Статичные функции активации = плохая адаптация, а динамичные = гибкость и мощь!
Биологические нейроны: порог возбуждения как в функциях активации.
Но у нас всё не так тупо, всё сложнее и круче!
Нелинейность: как и в мозге, наша модель будет решать сложные задачи, используя гибкость и динамику.
💊 ВЫВОД:
МЫ НЕ СДАДИМСЯ:
Пока корпорации бьются за рынок, мы строим свой мир, свой AI, который будет умнее, гибче и ближе к мозгу.
Мы не будем зависеть от их денег и их правил. Мы будем ПОДКОВЫВАТЬ БЛОХУ и рвать шаблоны!
RuKaLLaMA - это наш ответ на тупость корпоративного AI. Это наше будущее!
P.S. Для скептиков: Да, мы знаем, что это звучит как безумная идея. Но когда гениальные идеи были простыми?
P.P.S. В следующей статье: мы поговорим о динамических функциях активации и о том, как именно мы будем подковывать нашу блоху!
#RuKaLLaMA #НовыйAI #ДинамикаАксонов #Гибкость #Мозг #Адаптация #ПодкуёмБлоху #СинтетическиеДанные #КорпорацииОтдыхают
❤11👏3👍2🔥1
🌋 ЧТО ТАМ С ДАТАСЕТАМИ? АНАЛИЗ ДАННЫХ И ПУТИ РАЗВИТИЯ AI 🌋
Привет, реалисты! Сегодня мы без лишних эмоций разберём, куда катится AI-индустрия, какие проблемы на горизонте и что мы можем с этим сделать. Забудьте про красивые лозунги, сейчас мы посмотрим на ситуацию трезвым взглядом.
ЧТО ПРОИСХОДИТ:
P.S. Да, это сложнее, чем просто качать данные из интернета, но это единственный путь к созданию действительно умного и независимого AI.
P.P.S. В следующей статье: погрузимся в детали того, как мы будем решать эти задачи и как RuKaLLaMA поможет нам в этом!
#AIразвитие #RuKaLLaMA #МеньшеДанныхБольшеУма #Эффективность #ОткрытыйAI #Конфиденциальность #Децентрализация #НоваяАрхитектура
Привет, реалисты! Сегодня мы без лишних эмоций разберём, куда катится AI-индустрия, какие проблемы на горизонте и что мы можем с этим сделать. Забудьте про красивые лозунги, сейчас мы посмотрим на ситуацию трезвым взглядом.
🤔 ПРОБЛЕМЫ С ДАННЫМИ:
РЕАЛЬНОСТЬ ТАКОВА:
Зависимость от больших данных:
Современные модели (особенно трансформеры) требуют огромных объёмов данных для обучения. Это значит, что доступ к этим данным (и к вычислительным ресурсам для их обработки) контролируется крупными корпорациями.
Некачественные данные:
Большинство данных в интернете — это шум, мусор, и откровенная ложь. Обучение на таких данных приводит к моделям, которые могут выдавать бессмысленные или даже вредные результаты.
Угроза конфиденциальности:
Корпорации собирают наши личные данные, чтобы обучать свои модели. Это создаёт огромные риски для нашей конфиденциальности и безопасности.
Смещение:
Модели, обученные на однобоких данных, могут повторять и усиливать существующие предубеждения (расовые, гендерные и т.д.).
Ограничения на креативность:
Зависимость от больших данных мешает создавать новые, нешаблонные подходы. Все модели становятся похожими, как штампованные продукты.
🔬 АНАЛИЗ ТЕКУЩЕЙ СИТУАЦИИ:
ЧТО ПРОИСХОДИТ:
Трансформеры доминируют:
Архитектура трансформеров стала стандартом де-факто в обработке текста. Однако она требует огромных вычислительных мощностей и большого количества данных. Это как ездить на танке за хлебом.
Гонка за данными:
Корпорации ведут борьбу за доступ к данным, часто не гнушаясь сомнительными методами сбора и использования.
Несбалансированное развитие:
Основной упор делается на увеличение масштаба моделей, а не на поиск более эффективных алгоритмов. Это как наращивать мускулы, а не развивать мозг.
Манипуляции с данными:
Компании сами решают на каких данных тренировать модель и как формировать ее мнение.
⚡️ АЛЬТЕРНАТИВНЫЕ ПУТИ:
ЧТО МОЖНО ДЕЛАТЬ:
Меньше данных, больше эффективности: Разработка моделей, способных обучаться на меньших объёмах данных, но с большей эффективностью. Это как микропроцессор против суперкомпьютера.
Эффективное извлечение признаков:
Поиск способов извлекать суть из данных, а не просто запоминать их.
Новые архитектуры:
Разработка новых архитектур, не зависящих от трансформеров.
Синтез данных:
Создание искусственных данных, которые могут компенсировать недостаток реальных данных. Но надо понимать как.
Децентрализация:
Развитие децентрализованных моделей, которые не зависят от корпораций.
Прямое взаимодействие с данными:
Изучение возможности извлечения из данных неких "молекул" без потери признаков.
💊 ЦЕЛИ И ПЕРСПЕКТИВЫ:
Развитие открытых технологий: Создание открытых инструментов и моделей, которые будут доступны всем, а не только корпорациям.
Борьба за конфиденциальность: Защита наших личных данных от злоупотреблений.
Автономность: Развитие моделей без привязанности к корпоративным интересам и их предубеждениям.
🎯 ВЫВОД:
Мы видим, что текущая гонка за данными - это тупиковый путь. Нам нужно переосмыслить, как мы строим AI, и перейти от "больше" к "эффективнее". Мы будем идти своим путём!
P.S. Да, это сложнее, чем просто качать данные из интернета, но это единственный путь к созданию действительно умного и независимого AI.
P.P.S. В следующей статье: погрузимся в детали того, как мы будем решать эти задачи и как RuKaLLaMA поможет нам в этом!
#AIразвитие #RuKaLLaMA #МеньшеДанныхБольшеУма #Эффективность #ОткрытыйAI #Конфиденциальность #Децентрализация #НоваяАрхитектура
❤4😁1🤔1
Уважаемые, если у вас есть вопросы ко мне , то вы можете задать их прямо здесь. Я вам отвечу за все возможные противоречия, готов восполнить пробелы в понимании нашего проекта или , с чем черт не шутит, какой темы сторонней по обучению машин.
Я хочу чтобы у вас не оставалось пробелов в этом плане.
Понятное дело, что такой пост не для всех и некоторым интересны либо новости, либо итоги работы. И я вас в этом понимаю!
Я хочу чтобы у вас не оставалось пробелов в этом плане.
Понятное дело, что такой пост не для всех и некоторым интересны либо новости, либо итоги работы. И я вас в этом понимаю!
👍13❤2🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, синтеты!
Сегодня Техножнец не может уснуть.
Размышляет, волнуется, переживает.
Почему?
Да вот наобщался с вами в разделе комментариев и вопросов, и теперь в голову лезут всякие интересные и очень перспективные для работы мысли. Поощряю, уважаю и обожаю такое, но есть нюанс.
Спать? Хотелось бы, но почти невозможно. В этих сутках для меня сна не будет более чем 5 часов.
Иначе не успеется ничего.
Что я успел сделать?
На основе R3GAN сделал модель для восстановления аудио, буду тестировать в то время, пока будет создаваться датасет для RuKaLlama.
Зачем?
Да нам нужен проект, которым мы сможем приобщиться к общей структуре отечественных моделей для работы с аудио. Восстановление повреждённых аудиофайлов - это очень полезная тема, а так как это восстановление сигналов, то мы можем, как настоящие бояре, имплементировать это в более крупные проекты.
КОНЕЧНО! Это готовая архитектура, которую можно кастомить, не страшась последствий. Тем более это новый GAN, который будет работать - это точно!
Заодно, думается мне, эта практика будет полезна для сервиса восстановления печатей. (т.к. это новый тип GAN)
Мозг кипит! Я постоянно провожу мета-анализ того, что написал здесь месяц и более назад, чтобы сохранять текущие обновления, которые будут применены к проектам.
Это могут быть сами реализации моделей в виде веб-приложений или какие-то клёвые standalone пакеты.
Проектов много, постараюсь делиться по мере поступления.
Кто не любит много текста, но ты осилил - держи медаль
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤3
🌋 УТЕЧКА В DEEPSEEK: ВСЕ ВАШИ ЧАТЫ ВАЛЯЛИСЬ В ОТКРЫТОМ ДОСТУПЕ! 🌋
Привет, синтеты! Сегодня разбираем ЭПИЧНЫЙ ФАКАП китайского AI-стартапа. DeepSeek, который недавно ХВАСТАЛСЯ своими успехами, случайно слил ВСЕ секреты в сеть!
Они просто лежали по адресам: ТУТ и ТУТ
P.S. Для пользователей DeepSeek: может, пора удалить историю чатов? (Хотя уже поздно!)
P.P.S. В следующей статье: как я нашел свои чаты с DeepSeek в Google!
#DeepSeekFail #УтечкаДанных #КитайскийПозор #AIбезопасность #ОйВсё
Привет, синтеты! Сегодня разбираем ЭПИЧНЫЙ ФАКАП китайского AI-стартапа. DeepSeek, который недавно ХВАСТАЛСЯ своими успехами, случайно слил ВСЕ секреты в сеть!
Они просто лежали по адресам: ТУТ и ТУТ
🧠 ЧТО СЛУЧИЛОСЬ:
МАСШТАБ ПРОВАЛА:
- База данных просто лежала в открытом доступе
- Больше миллиона строк с личными чатами
- Все API-ключи как на ладони
- И НИКАКОЙ ЗАЩИТЫ, КАРЛ!
🔬 КТО НАШЁЛ:
ДЕТАЛИ НАХОДКИ:
- Компания Wiz Research (белые хакеры!)
- Два адреса с данными
- Полный доступ ко всему
- ДАЖЕ ШКОЛЬНИК БЫ ВЗЛОМАЛ!
⚡️ ЧТО СЛИЛИ:
СПИСОК ПОЗОРА:
- Все переписки с ботом
- Секретные ключи
- Внутренние данные
- ВООБЩЕ ВСЁ!
💊 ПОСЛЕДСТВИЯ:
КАК БЫСТРО ФИКСИЛИ:
- DeepSeek среагировал за час
- Дырку заткнули
- Репутация подмочена
- НО ОСАДОЧЕК ОСТАЛСЯ!
🎯 МОРАЛЬ ИСТОРИИ:
ВЫВОДЫ:
- Не все китайские AI такие крутые
- Безопасность важнее хайпа
- Проверяйте свои базы
- ДОВЕРЯЙ, НО ПРОВЕРЯЙ!
P.S. Для пользователей DeepSeek: может, пора удалить историю чатов? (Хотя уже поздно!)
P.P.S. В следующей статье: как я нашел свои чаты с DeepSeek в Google!
#DeepSeekFail #УтечкаДанных #КитайскийПозор #AIбезопасность #ОйВсё
👍6
Forwarded from ХтоШо | Сергей Черкасский
В США массово сокращают айтишников.
Тем временем YouTube в России:
Тем временем YouTube в России:
🤣25😁5🔥3😭1
Так. Ну что. Тачку выкладывать спеки какие у нас для тренировки RUKALLAMA?
👍19
🔧 БОЕВАЯ СТАНЦИЯ ДЛЯ RUKALLAMA: РАЗБИРАЕМ ЖЕЛЕЗО ПО КОСТОЧКАМ! 🔧
Привет, синтеты! Сегодня разберём железный комплекс, специально собранный для тренировки русскоязычных языковых моделей. В частности - для проекта RUKALLAMA!
P.S. Для исследователей: это не просто железо, а инструмент для качественного рывка в NLP!
P.P.S. А ещё на этом звере можно запускать параллельно несколько экспериментов. Многозадачность - наше всё!
#RUKALLAMA #AIразработка #NLP #TeslaA100 #РусскийAI
Привет, синтеты! Сегодня разберём железный комплекс, специально собранный для тренировки русскоязычных языковых моделей. В частности - для проекта RUKALLAMA!
🧠 МОЗГОВОЙ ЦЕНТР:
БАЗА ДЛЯ NLP:
- EPYC 7F52 (16/32 @ 3.9GHz)
- Идеален для токенизации
- Быстрая предобработка данных
- Многопоточность для NLP-задач
🔬 ГРАФИЧЕСКОЕ СЕРДЦЕ:
TESLA A100 40GB SXM4:
- В 5 раз больше памяти, чем нужно сейчас
- Огромный потенциал для batch size
- Длинные последовательности? Легко!
- Несколько моделей в памяти
⚡️ ПАМЯТЬ И ХРАНЕНИЕ:
ПРОСТОР ДЛЯ ДАННЫХ:
- 128GB ECC DDR4 3200MHz
- Хватит для любых словарей
- 4TB SSD для датасетов
- Возможность расширения
💊 ВОЗМОЖНОСТИ ДЛЯ RUKALLAMA:
ГЛАВНЫЕ ФИШКИ:
- Эксперименты со SplineGPT
- Увеличенные батчи
- Быстрый инференс
- Параллельные тесты моделей
🎯 ПЕРСПЕКТИВЫ:
ЧТО ДАЁТ СИСТЕМА:
- Переход на про-уровень разработки
- Возможности для экспериментов
- Работа с большими датасетами
- Потенциал для новых архитектур
P.S. Для исследователей: это не просто железо, а инструмент для качественного рывка в NLP!
P.P.S. А ещё на этом звере можно запускать параллельно несколько экспериментов. Многозадачность - наше всё!
#RUKALLAMA #AIразработка #NLP #TeslaA100 #РусскийAI
14👍16🔥4❤2