Техножнец – Telegram
Техножнец
1.7K subscribers
1.08K photos
211 videos
12 files
382 links
Канал моих увлечений и поделок. Все ,что я делаю и выкладываю здесь - делается с любовью.
Download Telegram
🌋 ТЕСТИМ QWEN CHAT: AI-ВИДЕОГЕНЕРАТОР КОТОРЫЙ ПОРВАЛ ВСЕХ ЗА $0! 🌋

Привет, синтеты! Сегодня у нас МЕГА-ТЕСТ нового видеогенератора от Alibaba, который ШОКИРОВАЛ индустрию!

🧠 ЧТО ЗА ЗВЕРЬ:


ОСНОВНЫЕ ФИШКИ:

- Абсолютно бесплатный
- Без лимитов (ПОКА ЧТО!)
- Делает видео лучше платных
- РАБОТАЕТ ПРЯМО СЕЙЧАС!


🔬 ТЕСТ-ДРАЙВ:


СРАВНИЛИ С ТОПАМИ:

- Pix Verse 3.5 (новенький!)
- Kling 1.6 Pro (дорогой!)
- Hailuo Minimax (пафосный!)
И... QWEN ПОРВАЛ ВСЕХ!


⚡️ В ЧЁМ КРУТ:


ЛУЧШИЕ СЦЕНЫ:

- Зомби в торговом центре
- Драконы над городом
- Разрезание помидоров (ДА, СЕРЬЁЗНО!)
- Балерина на льдине (БЕЗ ЛИШНИХ РУК!)


💊 ГДЕ СЛАБЕНЬКИЙ:


КОСЯКИ ЕСТЬ:

- Текст в видео хромает
- Селебрити не узнаёт (Уилл Смит = какой-то Дональд)
- Иногда люди ходят как крабы
- НО ЭТО ВСЁ ФИГНЯ ПО СРАВНЕНИЮ С ПЛЮСАМИ!


🎯 БОНУСЫ:


ДОПОЛНИТЕЛЬНЫЕ ВОЗМОЖНОСТИ:

- Генерит картинки
- Умеет в чат-бота
- Пишет код
- И ВСЁ ЭТО БЕСПЛАТНО!


P.S. Для скептиков: в тесте Qwen набрал 10 очков, а ближайший конкурент всего 2!

P.P.S. В следующей статье: как я пытался сгенерировать свадебное видео и случайно создал фильм ужасов!


#QwenChat #БесплатныйAI #AlibabaРвётВсех #AIвидео #НахаляввуИкачественно
🔥51🌭1
БИТВА НЕЙРОНОК 2025: DEEPSEEK VS QWEN - ЭПИЧНАЯ ЗАРУБА! 🤖

Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀

🎯 DEEPSEEK - САМОУВЕРЕННЫЙ ГИГАЧАД:


🔥 ТОП ФИЧИ:

Хавает код на 2800 строк (когда не падает)
Режим "Глубокое мышление" - можно подглядеть как он тупит думает
В LaTeX умеет, математику любит (но иногда путает)
С VASP'ом дружит (прям технарь!)


💩 ФЕЙЛЫ:

Путает 83 < 89 (математика на минималках)
Сервер постоянно в "бизи" улетает
С русским языком - швах (English, motherflucker, do you speak it?!)
Иногда просто троит, потому что МОЖЕТ 😅


🤖 QWEN - БЫСТРЫЙ, НО ЛЕНИВЫЙ:


😎 ПЛЮСЫ:

10К символов хавает (когда не бомбит)
В коротких диалогах шустрый
По-русски шпрехает без запинки


🤡 МИНУСЫ:

Код больше 10К строк = "многа букав, не асилил"
В копирайтинге - кэп очевидность
С VASP'ом на "вы" и через забор


🏆 ЭПИЧНЫЕ МОМЕНТЫ:


1️⃣ БАТТЛ С ФРУКТАМИ:

CopyDeepSeek: "Гранат - 83 ккал, Банан - 89 ккал...
А в списке банан ПЕРЕД гранатом, потому что... А ПОЧЕМУ БЫ И НЕТ!" 🍌


2️⃣ VASP ЧЕЛЛЕНДЖ:

DeepSeek: выдаёт формулы в LaTeX со сложным видом
Qwen: "Давайте разберем пошагово... ушёл в закат" 💀


3️⃣ КОД БАТТЛ:

DeepSeek: "2800 строк? ИЗИ! падает в обморок"
Qwen: "Более 10К? Извините, я пас!" 🏃‍♂️


🤔 ИТОГОВЫЙ СЧЁТ:


DeepSeek: 7/10 - Умный, но с характером
Qwen: 6/10 - Быстрый, но ленивый


🔮 ЧТО ДАЛЬШЕ?

Говорят, DeepSeek можно прикрутить вместо ChatGPT, поменяв только url и apikey! Звучит как "поменяй масло - получи Феррари"! 😂


🧠 ВЫВОД:

DeepSeek - для хардкорных технарей с крепкими нервами
Qwen - для тех, кто любит "быстро, но не очень"


P.S. А вы за кого - за математически неграмотного трудягу или за ленивого спринтера? Пишите в комментах! 🎮

#НейронныеВойны2025 #DeepSeekVSQwen #AIFailz #ТехноБлог #КтоКогоТупее
👍6🌭21🤔1🫡1
🌋 АТТРАКЦИОН НЕВИДАННОЙ ЩЕДРОСТИ: PIKA 2.1 И MINIMAX СНОВА В ДЕЛЕ! 🌋

Привет, синтеты! Сегодня разбираем ГОРЯЧИЕ НОВИНКИ в мире AI-видео - свежий апдейт Pika Labs и новый режим директора в Minimax!

PIKA 2.1
MINIMAX

🧠 PIKA 2.1 - ЧТО НОВОГО:


АПГРЕЙДЫ:

1080p (НАКОНЕЦ-ТО!)
Четкие детали как в IMAX
Движения как в жизни
Люди больше не мутанты!


🔬 ГДЕ ПРОКАЧАЛИСЬ:


НОВЫЕ ФИШКИ:

Руки больше не плавятся
Пальцы все на месте
Стабильность на высоте
ДАЖЕ БАБУШКА С ОГНЕМЁТОМ ПОЛУЧИЛАСЬ!


⚡️ РЕЖИМ ДИРЕКТОРА В MINIMAX:


КАК ЭТО РАБОТАЕТ:

Управление камерой в промпте
Три пресета на выбор
Движение слева-справа
СНИМАЕМ КАК СПИЛБЕРГ!


💊 ЗАБАВНЫЕ ФИШКИ:


НЕОЖИДАННЫЕ БОНУСЫ:

Все персонажи 70-х курят
Даже машины дымят!
Викинги в сериалах про копов
СЛУЧАЙНЫЙ БРЮС ЛИ-ТЕРМИНАТОР!


P.S. Для пользователей Pika 2.0: пора обновляться, ваши пираты теперь не будут разворачиваться спиной к камере!
P.P.S. В следующей статье: как я случайно создал сериал про викинга-полицейского с помощью Ingredients!


#Pika21 #MinimaxDirector #AIвидео #БабушкаСОгнеметом #ВикингКоп
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Демонстрация возможностей MINIMAX - Director
👍3
🚀 RUKALLAMA: ЧЕСТНЫЙ ТЕХНИЧЕСКИЙ РАЗБОР БЕЗ ПРИКРАС

Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!!
Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке.
Русский язык для неё будет родной, ограничений в плане языков нет и не должно быть (обязательно дополним другими языками)

🧮 ЧЕСТНАЯ МАТЕМАТИКА ЭФФЕКТИВНОСТИ:


Сравнение с GPT-2 (базовая линия):

- Данные: 40GB vs 0.182GB (×220)
- GPU память: 256GB vs 8GB (×32)
- GPU количество: 8 vs 1 (×8)
- Эпохи: 500 vs 183 (×2.7)


Общая эффективность ≈ 34,000х
НО! Это только для этапа "грамматической шизофазии"!


⚡️ РЕАЛЬНЫЕ ТЕХНИЧЕСКИЕ ФИШКИ:


Сплайны Колмогорова-Арнольда:


Адаптивные преобразования
Эффективная работа с малыми данными
Устойчивость к "забыванию"



RoPE имплементация:


Стабильное позиционное кодирование
Помогает при обновлении токенизатора
Поддерживает длинные последовательности


🎯 ЧТО РЕАЛЬНО УМЕЕТ:


Учится на малых данных (подтверждено)
Адаптируется к изменениям (проверено)
Стабильно держит структуру языка (доказано)


🔬 ТЕКУЩИЕ ОГРАНИЧЕНИЯ (БЕЗ ПРИКРАС):


Технические:


Пока на уровне "грамматической шизофазии"
Нет реального понимания смысла
Ограничения по контексту



Практические:


Требуется instruction tuning
Нужна доработка токенизатора
Зависимость от качества данных


📈 РЕАЛЬНЫЕ ПЕРСПЕКТИВЫ:


Ближайшие:


Доработка токенизатора
Расширение до 2GB данных
Интеграция инструкций



Долгосрочные:


Специализация под задачи
Улучшение семантики
Развитие архитектуры


💡 ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:


Эксперименты с малыми данными
Специализированные задачи
Исследовательские проекты


🎯 ИТОГОВЫЙ ВЕРДИКТ:


RUKALLAMA - это не мега-супер-революция, а рабочий инструмент с конкретными преимуществами и ограничениями. Главная фишка - эффективность на малых данных и ресурсах.


⚠️ ВАЖНОЕ ЗАМЕЧАНИЕ:


Да, мы использовали маркетинговые метрики для сравнения эффективности. Но сама технология реально работает и показывает результаты. Просто без лишнего хайпа.


БОЛЕЕ ПОДРОБНАЯ МЕТРИКА:

RUKALLAMA:
- Параметры: 24M
- Датасет: 82MB + 100MB
- GPU: 1× A100 (8GB)
- Эпохи: 183
- Время на эпоху: ~2 часа


GPT-2:
- Параметры: 124M
- Датасет: 40GB
- GPU: 8× V100 (32GB каждая)
- Эпохи: ~500
- Время на эпоху: ~12 часов


🧮 СЧИТАЕМ ЭФФЕКТИВНОСТЬ:

По данным: 40GB/0.182GB = 220x
2. По памяти: (32GB × 8)/(8GB × 1) = 32x
3. По железу: 8 GPU/1 GPU = 8x
4. По эпохам: 500/183 ≈ 2.7x


Общая эффективность: 220 × 32 × 8 × 2.7 = 152,064x
ДЕЛИМ НА 4.5 (пессимистичная поправка на неточности)
= 33,792x ≈ 34,000x


⚠️ ВАЖНЫЕ ОГОВОРКИ:


Это только для этапа "грамматической шизофазии"
Сравниваем только структурное обучение
Не учитываем качество генерации


📈 СРЕДНЯЯ ЭФФЕКТИВНОСТЬ (С ПОПРАВКАМИ):

1. Ресурсная: ~15-20x
2. Временная: ~24x
3. Данные: ~200x
4. Общая средняя: ~35x (консервативная оценка)


🎯 ГДЕ МЫ РЕАЛЬНО ВЫИГРЫВАЕМ:

Малые данные = быстрее обучение
Одна карта = проще масштабировать
Сплайны = меньше параметров


🤔 ГДЕ ПРОИГРЫВАЕМ:

Качество генерации (пока что)
Глубина понимания (временно)
Размер контекста (поправляется интеграцией новых фич)


💡 ИТОГО ПО ЭФФЕКТИВНОСТИ:

Маркетинговое число: 34,000x
Реальная средняя: ~35x
Правда посередине!


P.S. Да, мы немного перегнули с цифрами в маркетинге... Но попробуйте найти другую модель, которая научится русскому на 82MB данных! 😎

P.P.S. Если кто-то говорит, что это убьёт большие модели - не верьте! Это другой класс решений для других задач!


#RUKALLAMA #ЧестныйОбзор #НейроТехнологии #БезХайпа
👍12
Техножнец pinned «🚀 RUKALLAMA: ЧЕСТНЫЙ ТЕХНИЧЕСКИЙ РАЗБОР БЕЗ ПРИКРАС Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!! Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке. Русский…»
Forwarded from X-MEM (Terios)
😁15🤩1🤨1
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋

Привет, синтеты!

Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним, кто у кого слямзил, кто тут визионер, а кто просто надувает щёки!

⚔️ КТО ТУТ ВОРУЕТ, А КТО ****?


Американцы, как обиженные дети, вопят, что китайцы сперли их ИИ-секреты. Вспомнили про какие-то левые скачки трафика в их API. Мол, DeepSeek — это ChatGPT, но с другой стороны Великой Китайской Стены. Трамповские шавки по AI лают на всю округу, что китайцы украли все биты и байты!


Но, постойте! Юзеры, которые не едят ложкой чужие басни, кричат: "А OpenAI сами-то чем лучше?! На чужих данных тренируются, как крысы на помойке, и ещё возмущаются!" Короче, все хороши, прямо как в "Санта-Барбаре"!


🧠 КЕВИН ВЕЙЛ РАССКАЗЫВАЕТ СКАЗКИ ИЗ ДАВОСА


Кевин Вейл, этот директор по продуктам из OpenAI, вещает из Давоса, как попка-дурак:

Модели-то дешевеют В 100 РАЗ! И становятся умнее и быстрее. Какая невидаль, что технологии развиваются!
Их моделька o3 уже в топ-175 программистов в мире. Аплодисменты, стоя! (но скоро её кто-нибудь тоже обгонит, не переживайте).
Скоро ChatGPT станет ВАШИМ БРАУЗЕРНЫМ ДЬЯВОЛОМ! То есть, я хотел сказать, ассистентом. ИИ всё за вас сделает, только деньги несите!


УМНЫЕ РОБОТЫ?! 
Через 2-3 года?


Да кто вам поверит, Кевин, после того, как вы рассказывали про ИИ, которые "не глючат"!

🌌 STARGATE - БОЛЬШОЙ РАСПИЛ ПО АЙТИШНОМУ

OpenAI, Oracle и SoftBank решили вбухать $500 МИЛЛИАРДОВ в новую AI-инфраструктуру. Назвали это дело "Stargate". Это как строить Звезду Смерти, только из кремния и багов. Типа, без кучи бабла у них нейронки не обучаются, и их всех обгонят. Их спасут только деньги, не иначе!


💥 КТО КОГО ПЕРЕИГРАЕТ В ЭТОЙ AI-РУЛЕТКЕ?

OpenAI вопит про регулирование, типа "давайте всех построим в шеренгу". Как будто это поможет им не проиграть эту гонку. Китайцы же просто клепают новые AI, пока америкосы строчат петиции. И кто тут умный, а кто просто бюрократ?


📲 КЕВИН ВЕЙЛ О РЕГУЛИРОВАНИИ:

Кевин Вейл, между тем, говорит, что AI типа уже регулируется в медицине (ага, ага, скоро и в туалете придётся по правилам какать). Боятся, что AI станет слишком умным (ну конечно, а они-то думали что будет, как с палкой-копалкой?). Хотят, чтобы всё было по правилам, но без перегибов! Короче, хотят и рыбку съесть, и на лодке покататься.


💡 ЦУКЕРБЕРГ VS АЛЬТМАН: КТО БОТАНИК, А КТО ВИЗИОНЕР?

Кевин ещё говорит, что Цукерберг структурный, а Альтман — визионер! Ну конечно, Цукерберг, наверное, таблицу в Экселе с ценами на AI-фишки ведёт, а Альтман просто воображает, как он поработит мир. Визионер, блин, надутый индюк!


P.S. Для тех, кто думает, что это всё серьёзно: ребята, это просто ИИ-балаган. Воруют, врут, надувают щёки — всё как всегда! Зато нам есть что обсудить.

P.P.S. В следующей статье: разберём кто всё-таки слямзил и где найти сливы нейронок, пока их совсем не прикрыли!
👍11
Техножнец
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋 Привет, синтеты! Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним…
🌋 И ШО?: А ЧТО НАМ ТО ДЕЛАТЬ, КОГДА КОРПОРАЦИИ БОРЮТСЯ ЗА КУСОК ПИРОГА?! 🌋

Привет, синтеты! Сейчас мы не просто ржём над чужими войнами, мы ищем СВОЙ ПУТЬ в этом AI-хаосе.
Готовьтесь к порции цинизма, здравого смысла и планам по спасению мира (ну или хотя бы своего мозга).

🤔 ЧТО ПРОИСХОДИТ?


ПРОБЛЕМЫ НА ПОВЕРХНОСТИ:

"Дистилляция моделей" скоро накроется медным тазом. Ну то есть, выжимать знания из больших моделей станет рискованным бизнесом. Корпорации прикроют лавочку, это ж понятно!


Новым моделям без миллионов баксов будет сложно выжить. Как ковать блоху, когда у тебя нет кувалды? Ответ: хитрыми путями и старыми железяками!

Вся эта AI-движуха - сплошная НЕПРОДУМАННОСТЬ! Сначала тренируют на чужих данных (привет OpenAI), а потом обвиняют других в воровстве. Чистой воды цирк и рыночные игрища!


🎯 ЧТО ДЕЛАТЬ НАМ?


НАШ ПЛАН:

Делаем адаптивные модели на мизерном количестве данных. Как?! Синтезируем сами из открытых источников!
Скармливаем эту информацию АРХИТЕКТУРЕ ЛЛМ СОВЕРШЕННО НОВОГО ТИПА!
Наш RuKaLLaMA (да-да, именно так!) будет похож на МОЗГ! (не на безмозглый трансформер, которые штампуют корпорации!)


🧠 В ЧЕМ ЦИМЕС ?


НАША ФИШКА:

RuKaLLaMA будет работать как живой мозг!
Гибкость, адаптивность, понимание контекста.
Всё как у нас, надеемся!

Современные трансформеры, конечно, вдохновлены мозгом, но они — как карикатура на настоящего гения.
Мы будем ИСПОЛЬЗОВАТЬ ГИБКОСТЬ АКСОНОВ, а не статичные функции активации!

В мозгу аксоны меняются в зависимости от стимулов.
Так почему функции активации в нейронке должны быть статичны?
Даёшь динамику и гибкость!


🔬 НАУЧНЫЙ АНАЛИЗ (для тех, кто не в танке): ПРУФ

Раньше считали, что аксоны статичны. Но исследования показали: они могут МЕНЯТЬСЯ!

Статичные функции активации = плохая адаптация, а динамичные = гибкость и мощь!

Биологические нейроны: порог возбуждения как в функциях активации.
Но у нас всё не так тупо, всё сложнее и круче!


Нелинейность: как и в мозге, наша модель будет решать сложные задачи, используя гибкость и динамику.


💊 ВЫВОД:


МЫ НЕ СДАДИМСЯ:

Пока корпорации бьются за рынок, мы строим свой мир, свой AI, который будет умнее, гибче и ближе к мозгу.
Мы не будем зависеть от их денег и их правил. Мы будем ПОДКОВЫВАТЬ БЛОХУ и рвать шаблоны!
RuKaLLaMA - это наш ответ на тупость корпоративного AI. Это наше будущее!


P.S. Для скептиков: Да, мы знаем, что это звучит как безумная идея. Но когда гениальные идеи были простыми?

P.P.S. В следующей статье: мы поговорим о динамических функциях активации и о том, как именно мы будем подковывать нашу блоху!


#RuKaLLaMA #НовыйAI #ДинамикаАксонов #Гибкость #Мозг #Адаптация #ПодкуёмБлоху #СинтетическиеДанные #КорпорацииОтдыхают
11👏3👍2🔥1
🌋 ЧТО ТАМ С ДАТАСЕТАМИ? АНАЛИЗ ДАННЫХ И ПУТИ РАЗВИТИЯ AI 🌋

Привет, реалисты! Сегодня мы без лишних эмоций разберём, куда катится AI-индустрия, какие проблемы на горизонте и что мы можем с этим сделать. Забудьте про красивые лозунги, сейчас мы посмотрим на ситуацию трезвым взглядом.

🤔 ПРОБЛЕМЫ С ДАННЫМИ:


РЕАЛЬНОСТЬ ТАКОВА:


Зависимость от больших данных:

Современные модели (особенно трансформеры) требуют огромных объёмов данных для обучения. Это значит, что доступ к этим данным (и к вычислительным ресурсам для их обработки) контролируется крупными корпорациями.


Некачественные данные:

Большинство данных в интернете — это шум, мусор, и откровенная ложь. Обучение на таких данных приводит к моделям, которые могут выдавать бессмысленные или даже вредные результаты.


Угроза конфиденциальности:

Корпорации собирают наши личные данные, чтобы обучать свои модели. Это создаёт огромные риски для нашей конфиденциальности и безопасности.


Смещение:

Модели, обученные на однобоких данных, могут повторять и усиливать существующие предубеждения (расовые, гендерные и т.д.).


Ограничения на креативность:

Зависимость от больших данных мешает создавать новые, нешаблонные подходы. Все модели становятся похожими, как штампованные продукты.


🔬 АНАЛИЗ ТЕКУЩЕЙ СИТУАЦИИ:


ЧТО ПРОИСХОДИТ:

Трансформеры доминируют:

Архитектура трансформеров стала стандартом де-факто в обработке текста. Однако она требует огромных вычислительных мощностей и большого количества данных. Это как ездить на танке за хлебом.


Гонка за данными:

Корпорации ведут борьбу за доступ к данным, часто не гнушаясь сомнительными методами сбора и использования.


Несбалансированное развитие:

Основной упор делается на увеличение масштаба моделей, а не на поиск более эффективных алгоритмов. Это как наращивать мускулы, а не развивать мозг.


Манипуляции с данными:

Компании сами решают на каких данных тренировать модель и как формировать ее мнение.


⚡️ АЛЬТЕРНАТИВНЫЕ ПУТИ:


ЧТО МОЖНО ДЕЛАТЬ:

Меньше данных, больше эффективности: Разработка моделей, способных обучаться на меньших объёмах данных, но с большей эффективностью. Это как микропроцессор против суперкомпьютера.


Эффективное извлечение признаков:

Поиск способов извлекать суть из данных, а не просто запоминать их.


Новые архитектуры:

Разработка новых архитектур, не зависящих от трансформеров.


Синтез данных:

Создание искусственных данных, которые могут компенсировать недостаток реальных данных. Но надо понимать как.


Децентрализация:

Развитие децентрализованных моделей, которые не зависят от корпораций.


Прямое взаимодействие с данными:

Изучение возможности извлечения из данных неких "молекул" без потери признаков.


💊 ЦЕЛИ И ПЕРСПЕКТИВЫ:


Развитие открытых технологий: Создание открытых инструментов и моделей, которые будут доступны всем, а не только корпорациям.

Борьба за конфиденциальность: Защита наших личных данных от злоупотреблений.

Автономность: Развитие моделей без привязанности к корпоративным интересам и их предубеждениям.


🎯 ВЫВОД:


Мы видим, что текущая гонка за данными - это тупиковый путь. Нам нужно переосмыслить, как мы строим AI, и перейти от "больше" к "эффективнее". Мы будем идти своим путём!


P.S. Да, это сложнее, чем просто качать данные из интернета, но это единственный путь к созданию действительно умного и независимого AI.

P.P.S. В следующей статье: погрузимся в детали того, как мы будем решать эти задачи и как RuKaLLaMA поможет нам в этом!


#AIразвитие #RuKaLLaMA #МеньшеДанныхБольшеУма #Эффективность #ОткрытыйAI #Конфиденциальность #Децентрализация #НоваяАрхитектура
4😁1🤔1
ПИЗДИТ
😁18🔥3🌚3🤪1
Уважаемые, если у вас есть вопросы ко мне , то вы можете задать их прямо здесь. Я вам отвечу за все возможные противоречия, готов восполнить пробелы в понимании нашего проекта или , с чем черт не шутит, какой темы сторонней по обучению машин.

Я хочу чтобы у вас не оставалось пробелов в этом плане.

Понятное дело, что такой пост не для всех и некоторым интересны либо новости, либо итоги работы. И я вас в этом понимаю!
👍132🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
Привет, синтеты!

Сегодня Техножнец не может уснуть.
Размышляет, волнуется, переживает.


Почему?


Да вот наобщался с вами в разделе комментариев и вопросов, и теперь в голову лезут всякие интересные и очень перспективные для работы мысли. Поощряю, уважаю и обожаю такое, но есть нюанс.


Спать? Хотелось бы, но почти невозможно. В этих сутках для меня сна не будет более чем 5 часов.
Иначе не успеется ничего.


Что я успел сделать?


На основе R3GAN сделал модель для восстановления аудио, буду тестировать в то время, пока будет создаваться датасет для RuKaLlama.


Зачем?


Да нам нужен проект, которым мы сможем приобщиться к общей структуре отечественных моделей для работы с аудио. Восстановление повреждённых аудиофайлов - это очень полезная тема, а так как это восстановление сигналов, то мы можем, как настоящие бояре, имплементировать это в более крупные проекты.

КОНЕЧНО! Это готовая архитектура, которую можно кастомить, не страшась последствий. Тем более это новый GAN, который будет работать - это точно!


Заодно, думается мне, эта практика будет полезна для сервиса восстановления печатей. (т.к. это новый тип GAN)


Мозг кипит! Я постоянно провожу мета-анализ того, что написал здесь месяц и более назад, чтобы сохранять текущие обновления, которые будут применены к проектам.


Это могут быть сами реализации моделей в виде веб-приложений или какие-то клёвые standalone пакеты.
Проектов много, постараюсь делиться по мере поступления.


Кто не любит много текста, но ты осилил - держи медаль 💊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍133
😁20🤝1
🌋 УТЕЧКА В DEEPSEEK: ВСЕ ВАШИ ЧАТЫ ВАЛЯЛИСЬ В ОТКРЫТОМ ДОСТУПЕ! 🌋

Привет, синтеты! Сегодня разбираем ЭПИЧНЫЙ ФАКАП китайского AI-стартапа. DeepSeek, который недавно ХВАСТАЛСЯ своими успехами, случайно слил ВСЕ секреты в сеть!

Они просто лежали по адресам: ТУТ и ТУТ

🧠 ЧТО СЛУЧИЛОСЬ:


МАСШТАБ ПРОВАЛА:

- База данных просто лежала в открытом доступе
- Больше миллиона строк с личными чатами
- Все API-ключи как на ладони
- И НИКАКОЙ ЗАЩИТЫ, КАРЛ!


🔬 КТО НАШЁЛ:


ДЕТАЛИ НАХОДКИ:

- Компания Wiz Research (белые хакеры!)
- Два адреса с данными
- Полный доступ ко всему
- ДАЖЕ ШКОЛЬНИК БЫ ВЗЛОМАЛ!


⚡️ ЧТО СЛИЛИ:


СПИСОК ПОЗОРА:

- Все переписки с ботом
- Секретные ключи
- Внутренние данные
- ВООБЩЕ ВСЁ!


💊 ПОСЛЕДСТВИЯ:


КАК БЫСТРО ФИКСИЛИ:

- DeepSeek среагировал за час
- Дырку заткнули
- Репутация подмочена
- НО ОСАДОЧЕК ОСТАЛСЯ!


🎯 МОРАЛЬ ИСТОРИИ:


ВЫВОДЫ:

- Не все китайские AI такие крутые
- Безопасность важнее хайпа
- Проверяйте свои базы
- ДОВЕРЯЙ, НО ПРОВЕРЯЙ!


P.S. Для пользователей DeepSeek: может, пора удалить историю чатов? (Хотя уже поздно!)

P.P.S. В следующей статье: как я нашел свои чаты с DeepSeek в Google!


#DeepSeekFail #УтечкаДанных #КитайскийПозор #AIбезопасность #ОйВсё
👍6
В США массово сокращают айтишников.

Тем временем YouTube в России:
🤣25😁5🔥3😭1
Так. Ну что. Тачку выкладывать спеки какие у нас для тренировки RUKALLAMA?
👍19
🔧 БОЕВАЯ СТАНЦИЯ ДЛЯ RUKALLAMA: РАЗБИРАЕМ ЖЕЛЕЗО ПО КОСТОЧКАМ! 🔧

Привет, синтеты! Сегодня разберём железный комплекс, специально собранный для тренировки русскоязычных языковых моделей. В частности - для проекта RUKALLAMA!

🧠 МОЗГОВОЙ ЦЕНТР:


БАЗА ДЛЯ NLP:

- EPYC 7F52 (16/32 @ 3.9GHz)
- Идеален для токенизации
- Быстрая предобработка данных
- Многопоточность для NLP-задач


🔬 ГРАФИЧЕСКОЕ СЕРДЦЕ:


TESLA A100 40GB SXM4:

- В 5 раз больше памяти, чем нужно сейчас
- Огромный потенциал для batch size
- Длинные последовательности? Легко!
- Несколько моделей в памяти


⚡️ ПАМЯТЬ И ХРАНЕНИЕ:


ПРОСТОР ДЛЯ ДАННЫХ:

- 128GB ECC DDR4 3200MHz
- Хватит для любых словарей
- 4TB SSD для датасетов
- Возможность расширения


💊 ВОЗМОЖНОСТИ ДЛЯ RUKALLAMA:


ГЛАВНЫЕ ФИШКИ:

- Эксперименты со SplineGPT
- Увеличенные батчи
- Быстрый инференс
- Параллельные тесты моделей


🎯 ПЕРСПЕКТИВЫ:


ЧТО ДАЁТ СИСТЕМА:

- Переход на про-уровень разработки
- Возможности для экспериментов
- Работа с большими датасетами
- Потенциал для новых архитектур


P.S. Для исследователей: это не просто железо, а инструмент для качественного рывка в NLP!

P.P.S. А ещё на этом звере можно запускать параллельно несколько экспериментов. Многозадачность - наше всё!

#RUKALLAMA #AIразработка #NLP #TeslaA100 #РусскийAI
14👍16🔥42
Плакат из Китая, когда там все ориентировались на советскую науку!
33👍6😢1