Техножнец
Тачка за 1,1 млн. В запасе ещё две карты можно всадить внутрь и делать вещи
Кабан, сука.
👍23🫡12⚡2🌭1
Ну штош. Машина страшная.
Буду завтра уже тестировать, сегодня голова очень мыльная.
В Петербурге сегодня проливной дождь и температура типа 2 градуса тепла.
В январе это настоящий ад, особенно здесь. Поэтому, я просто не вывезу.
Желаю вам отличного вечера.
Если будут новости по ИИ - Я вам отпишусь.
Но вы должны понимать, что после такой покупки пути обратно больше нет. Да, мы не deepsea ,да у нас нет кучи финансирования....да у нас есть только советское наследие в виде теоремы Колмогорова-Арнольда , но мы будем стараться.
В команде PPRFNK.TECH по этой теме (по теме ии) я самый глубоко разбирающийся специалист, но я обязательно наших парней и девчат подтяну.
Я буду стараться работать открыто и показывать свои проекты + выкладываю репозиторий на гитхаб.
Впереди создание грамотных инструментов для работы с датасетами, ии и для производства новых данных.
Всё это будет требовать времени, бюджетом и терпения. Если вы будете все это дело комментировать, лайкать и тестировать, то лично я буду СЧАСТЛИВ.
Буду завтра уже тестировать, сегодня голова очень мыльная.
В Петербурге сегодня проливной дождь и температура типа 2 градуса тепла.
В январе это настоящий ад, особенно здесь. Поэтому, я просто не вывезу.
Желаю вам отличного вечера.
Если будут новости по ИИ - Я вам отпишусь.
Но вы должны понимать, что после такой покупки пути обратно больше нет. Да, мы не deepsea ,да у нас нет кучи финансирования....да у нас есть только советское наследие в виде теоремы Колмогорова-Арнольда , но мы будем стараться.
В команде PPRFNK.TECH по этой теме (по теме ии) я самый глубоко разбирающийся специалист, но я обязательно наших парней и девчат подтяну.
Я буду стараться работать открыто и показывать свои проекты + выкладываю репозиторий на гитхаб.
Впереди создание грамотных инструментов для работы с датасетами, ии и для производства новых данных.
Всё это будет требовать времени, бюджетом и терпения. Если вы будете все это дело комментировать, лайкать и тестировать, то лично я буду СЧАСТЛИВ.
2❤29👍17🔥4
🌋 OPENAI ОБЯЗУЕТСЯ ПОМОГАТЬ КОНКУРЕНТАМ: САМЫЙ ДИКИЙ ПУНКТ В ИХ УСТАВЕ! 🌋
Привет, синтеты! Я тут копался в уставе OpenAI и нашёл БЕЗУМНЫЙ пункт, о котором, похоже, все забыли. Включая Сэма Альтмана!
🔬 ПОЧЕМУ ЭТО ДИКО:
P.S. Для OpenAI: может, пора обновить устав? Или начать его соблюдать?
P.P.S. След. статья: как Microsoft отреагирует, когда узнает об этом пункте!
ПРУФ: https://openai.com/charter/
КОММЕНТАРИЙ РЕДАКЦИИ: Это ж какими надо быть лохами...
#OpenAI #УставКотрогоНет #AGIгонка #КтоКогоПобедит
Привет, синтеты! Я тут копался в уставе OpenAI и нашёл БЕЗУМНЫЙ пункт, о котором, похоже, все забыли. Включая Сэма Альтмана!
🧠 ЧТО ЗА ДИЧЬ:
ПРЯМАЯ ЦИТАТА:
"Если проект, разделяющий наши ценности и заботящийся о безопасности, приблизится к созданию AGI раньше нас, мы обязуемся ПРЕКРАТИТЬ КОНКУРЕНЦИЮ и НАЧАТЬ ПОМОГАТЬ этому проекту."
УСЛОВИЕ ТРИГГЕРА:
"Вероятность успеха больше 50%"
"В течение следующих двух лет"
И ЭТО ВСЁ ЕЩЁ В УСТАВЕ!
🔬 ПОЧЕМУ ЭТО ДИКО:
КОНТЕКСТ:
DeepSeek уже обгоняет o1
Anthropic дышит в спину
Google выкатывает Gemini
А УСТАВ ВСЁ ЕЩЁ ДЕЙСТВУЕТ!
⚡️ ПРОТИВОРЕЧИЯ:
РЕАЛЬНОСТЬ VS УСТАВ:
OpenAI воюет со всеми
Маск судится с ними
Альтман играет в политику
А про устав все "забыли"
💊 ЧТО ЭТО ЗНАЧИТ:
ДЛЯ ИНДУСТРИИ:
OpenAI нарушает свои принципы? ( Ой блять так удивляет...)
Или никто не близок к AGI?
Или это просто слова?
ОТВЕТОВ НЕТ!
P.S. Для OpenAI: может, пора обновить устав? Или начать его соблюдать?
P.P.S. След. статья: как Microsoft отреагирует, когда узнает об этом пункте!
ПРУФ: https://openai.com/charter/
#OpenAI #УставКотрогоНет #AGIгонка #КтоКогоПобедит
😁6🌚2👍1
🌋 ПЕРВЫЙ СКАНДАЛ DEEPSEEK: AI ОКАЗАЛСЯ С КИТАЙСКОЙ ЦЕНЗУРОЙ! 🌋
Привет, синтеты! Помните, как мы недавно восхищались DeepSeek? Так вот, у этой истории появилась ТЁМНАЯ СТОРОНА!
P.S. Для тех, кто думал, что китайский AI будет независимым - добро пожаловать в реальность!
P.P.S. Следующая статья: какие ещё темы запрещены в DeepSeek? Спойлер: список растёт!
#DeepSeek #КитайскаяЦензура #AIсГраницами #ПолитикаВКоде
Привет, синтеты! Помните, как мы недавно восхищались DeepSeek? Так вот, у этой истории появилась ТЁМНАЯ СТОРОНА!
🧠 ЧТО СЛУЧИЛОСЬ:
СУТЬ СКАНДАЛА:
Индийцы обнаружили странности
AI отказывается говорить о спорных территориях
"Извините, это вне моих возможностей" (СЕРЬЁЗНО?!)
Три штата просто "исчезли"
🔬 КОНКРЕТНЫЕ СЛУЧАИ:
ЗАПРЕТНЫЕ ТЕРРИТОРИИ:
Аруначал-Прадеш (нет в чате)
Ассам (тоже нет)
Нагаленд (и этого нет)
ВСЕ ЭТО СПОРНЫЕ ТЕРРИТОРИИ!
⚡️ ПОЧЕМУ ЭТО ВАЖНО:
ВЫВОДЫ:
Китайская цензура в действии
AI с политической повесткой
"Бесплатный" сыр оказался с уловкой
DeepSeek = инструмент пропаганды?
💊 ПОСЛЕДСТВИЯ:
ДЛЯ ПОЛЬЗОВАТЕЛЕЙ:
Нельзя верить всему бесплатному
AI может быть предвзятым
Нужно проверять все источники
ДУМАЙТЕ СВОЕЙ ГОЛОВОЙ!
P.S. Для тех, кто думал, что китайский AI будет независимым - добро пожаловать в реальность!
P.P.S. Следующая статья: какие ещё темы запрещены в DeepSeek? Спойлер: список растёт!
#DeepSeek #КитайскаяЦензура #AIсГраницами #ПолитикаВКоде
😁3💯1
Техножнец
🌋 ПЕРВЫЙ СКАНДАЛ DEEPSEEK: AI ОКАЗАЛСЯ С КИТАЙСКОЙ ЦЕНЗУРОЙ! 🌋 Привет, синтеты! Помните, как мы недавно восхищались DeepSeek? Так вот, у этой истории появилась ТЁМНАЯ СТОРОНА! 🧠 ЧТО СЛУЧИЛОСЬ: СУТЬ СКАНДАЛА: Индийцы обнаружили странности AI отказывается…
Ждём когда Китай снова притянут за тему с уйгурами.
Как же - ЗАЕБАЛО!
Как же - ЗАЕБАЛО!
👍5
🌋 DEEPSEEK R1: КАК КИТАЙЦЫ СОБРАЛИ ФЕРРАРИ ИЗ ЗАПЧАСТЕЙ ОТ ЖИГУЛЕЙ! 🌋
Привет, синтеты! Сегодня разберём САМЫЙ ДИКИЙ СЛИВ 2025 года - как китайцы сделали топовый AI за копейки и заставили Сэма Альтмана нервно курить в сторонке!
Детальное видео: https://www.youtube.com/watch?v=r3TpcHebtxM&ab_channel=Dave%27sGarage
P.S. Для скептиков: да, модель реально отвечает про события на площади Тяньаньмэнь. По крайней мере, пока...
P.P.S. В следующей статье: как я пытался запустить DeepSeek на калькуляторе. Спойлер: почти получилось!
#DeepSeekR1 #КитайскийПрорыв #AIреволюция #ФеррариИзЖигулей #SamAltmanПлачет
Привет, синтеты! Сегодня разберём САМЫЙ ДИКИЙ СЛИВ 2025 года - как китайцы сделали топовый AI за копейки и заставили Сэма Альтмана нервно курить в сторонке!
Детальное видео: https://www.youtube.com/watch?v=r3TpcHebtxM&ab_channel=Dave%27sGarage
🧠 ЧТО ЗА ЗВЕРЬ:
СУТЬ ПРОЕКТА:
- AI-модель размером с кота
- Работает как слон
- Стоит как велосипед
- И ВСЁ ЭТО БЕЗ ТОПОВЫХ NVIDIA!
🔬 КАК ОНИ ЭТО СДЕЛАЛИ:
ХИТРЫЙ ПЛАН:
- Взяли большие модели как учителей
- Сжали знания как джинсы после стирки
- Собрали panel of experts из разных AI
- ПОЛУЧИЛИ МОНСТРА ЗА $6 ЛЯМОВ!
⚡️ ТЕХНИЧЕСКИЕ ДЕТАЛИ:
ГДЕ МОЖНО ЗАПУСТИТЬ:
- На обычном ноуте (серьёзно!)
- На Thread Ripper + RX 680
- Даже на MacBook Pro!
- НА ORIN NANO ЗА $249, КАРЛ!
💊 ПОЧЕМУ ЭТО БОМБА:
ПОСЛЕДСТВИЯ:
- Microsoft и Nvidia в шоке
- OpenAI пересчитывает бюджеты
- Stargate за $500B выглядит как МЕМАСИК
- Маленькие компании: "Наше время пришло!"
🎯 ПОДВОДНЫЕ КАМНИ:
НЕ ВСЁ ТАК РАДУЖНО:
- Галлюцинации бывают (как после пятницы)
- Узкие задачи не его конёк
- Зависит от качества "учителей"
- НО ВСЁ РАВНО ОГОНЬ!
P.S. Для скептиков: да, модель реально отвечает про события на площади Тяньаньмэнь. По крайней мере, пока...
P.P.S. В следующей статье: как я пытался запустить DeepSeek на калькуляторе. Спойлер: почти получилось!
#DeepSeekR1 #КитайскийПрорыв #AIреволюция #ФеррариИзЖигулей #SamAltmanПлачет
👍3
Media is too big
VIEW IN TELEGRAM
🌋 QWEN2.5-MAX: ALIBABA ВЫКАТИЛА МОНСТРА, КОТОРЫЙ СОЖРАЛ DEEPSEEK V3! 🌋
CHAT
Привет, синтеты! Сегодня разбираем АБСОЛЮТНОЕ БЕЗУМИЕ - Alibaba показала свою новую игрушку, и это не просто AI, это НАСТОЯЩИЙ БОСС ФИНАЛЬНОГО УРОВНЯ!
КОД ДЛЯ ИЗБРАННЫХ:
P.S. Для скептиков: модель уже доступна в облаке Alibaba. Идите проверяйте!
P.P.S. В следующей статье: как я пытался запустить Qwen2.5-Max на своём тостере!
#QwenMax #AIбезтормозов #AlibabaРвётВсех #AIгонка #ПрощайGPT4
CHAT
Привет, синтеты! Сегодня разбираем АБСОЛЮТНОЕ БЕЗУМИЕ - Alibaba показала свою новую игрушку, и это не просто AI, это НАСТОЯЩИЙ БОСС ФИНАЛЬНОГО УРОВНЯ!
🧠 ЧТО ЗА ЗВЕРЬ:
МАСШТАБЫ БЕЗУМИЯ:
- 20 ТРИЛЛИОНОВ токенов обучения
- MoE архитектура (много экспертов в одной башке!)
- SFT + RLHF (научили хорошим манерам)
- БОЛЬШЕ ЧЕМ ВАШ МОЗГ!
🔬 РЕЗУЛЬТАТЫ ТЕСТОВ:
РАЗГРОМ КОНКУРЕНТОВ:
- DeepSeek V3 плачет в уголке
- GPT-4o нервно курит
- Claude-3.5 пошёл медитировать
- ПОРВАЛИ ВСЕХ В ARENA-HARD!
⚡️ ГДЕ ОСОБЕННО ЖЖЁТ:
УБИЙСТВЕННЫЕ ПОКАЗАТЕЛИ:
- LiveCodeBench (кодит как бог!)
- MMLU-Pro (знает больше профессора)
- GPQA-Diamond (решает всё!)
- И ЭТО ТОЛЬКО НАЧАЛО!
💊 КАК ПОПРОБОВАТЬ:
ДВА ВАРИАНТА:
- Qwen Chat (для простых смертных)
- API доступ (для гуру)
КОД ДЛЯ ИЗБРАННЫХ:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_от_рая",
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
# И ПОЕХАЛИ!
🎯 ЧТО ДАЛЬШЕ:
ПЛАНЫ НА БУДУЩЕЕ:
- Сделать AI умнее людей (УЖЕ БЛИЗКО!)
- Масштабировать до бесконечности
- Исследовать неизведанное
- ПОКОРИТЬ МИР (шутка, или нет?)
P.S. Для скептиков: модель уже доступна в облаке Alibaba. Идите проверяйте!
P.P.S. В следующей статье: как я пытался запустить Qwen2.5-Max на своём тостере!
#QwenMax #AIбезтормозов #AlibabaРвётВсех #AIгонка #ПрощайGPT4
🔥5🤯4❤1😁1
🌋 НАРОДНЫЙ ТЕСТ-ДРАЙВ: КИТАЙСКИЕ НЕЙРОНКИ ГЛАЗАМИ ПРОСТЫХ СМЕРТНЫХ! 🌋
P.S. Для осторожных: ваши отзывы будут использованы в следующей статье (но только с вашего согласия!)
P.P.S. Давайте сначала про технологии, а политику оставим на потом!
#КитайскийAI #НародныйТест #ЧестныйОбзор #AIгонка #DeepSeekVSQwen
Привет, синтеты! Давайте устроим ЧЕСТНЫЙ РАЗБОР полётов - что там у китайцев в нейрошопе и стоит ли оно того?
🧠 ЧТО ТЕСТИМ:
- DeepSeek (новый хайп!)
- Qwen (от Али-бабы и 40 нейронов)
- Другие подозрительные AI
- ВСЁ, ЧТО ВЫШЛО ИЗ ПОДНЕБЕСНОЙ!
🔬 ЧТО ХОТИМ УЗНАТЬ:
ГЛАВНЫЕ ВОПРОСЫ:
- Реально ли оно так хорошо?
- Где косяки и баги?
- С чем можно сравнить?
- СТОИТ ЛИ ВООБЩЕ СВЯЗЫВАТЬСЯ?
⚡️ НУЖНЫ ВАШИ ИСТОРИИ:
РАССКАЖИТЕ:
- Какие модели юзали?
- Что понравилось/бомбануло?
- С чем сравнивали?
- Где облажались китайцы?
💊 ПРАВИЛА УЧАСТИЯ:
КАК ПИСАТЬ ОТЗЫВ:
- Только реальный опыт
- Никакой воды и хайпа
- Конкретные примеры
- БЕЗ РЕКЛАМЫ И ПРОПЛАЧЕННОГО БРЕДА!
P.S. Для осторожных: ваши отзывы будут использованы в следующей статье (но только с вашего согласия!)
P.P.S. Давайте сначала про технологии, а политику оставим на потом!
#КитайскийAI #НародныйТест #ЧестныйОбзор #AIгонка #DeepSeekVSQwen
ПОГНАЛИ В КОММЕНТЫ! 👇
🌋 ТЕСТИМ QWEN CHAT: AI-ВИДЕОГЕНЕРАТОР КОТОРЫЙ ПОРВАЛ ВСЕХ ЗА $0! 🌋
Привет, синтеты! Сегодня у нас МЕГА-ТЕСТ нового видеогенератора от Alibaba, который ШОКИРОВАЛ индустрию!
P.S. Для скептиков: в тесте Qwen набрал 10 очков, а ближайший конкурент всего 2!
P.P.S. В следующей статье: как я пытался сгенерировать свадебное видео и случайно создал фильм ужасов!
#QwenChat #БесплатныйAI #AlibabaРвётВсех #AIвидео #НахаляввуИкачественно
Привет, синтеты! Сегодня у нас МЕГА-ТЕСТ нового видеогенератора от Alibaba, который ШОКИРОВАЛ индустрию!
🧠 ЧТО ЗА ЗВЕРЬ:
ОСНОВНЫЕ ФИШКИ:
- Абсолютно бесплатный
- Без лимитов (ПОКА ЧТО!)
- Делает видео лучше платных
- РАБОТАЕТ ПРЯМО СЕЙЧАС!
🔬 ТЕСТ-ДРАЙВ:
СРАВНИЛИ С ТОПАМИ:
- Pix Verse 3.5 (новенький!)
- Kling 1.6 Pro (дорогой!)
- Hailuo Minimax (пафосный!)
И... QWEN ПОРВАЛ ВСЕХ!
⚡️ В ЧЁМ КРУТ:
ЛУЧШИЕ СЦЕНЫ:
- Зомби в торговом центре
- Драконы над городом
- Разрезание помидоров (ДА, СЕРЬЁЗНО!)
- Балерина на льдине (БЕЗ ЛИШНИХ РУК!)
💊 ГДЕ СЛАБЕНЬКИЙ:
КОСЯКИ ЕСТЬ:
- Текст в видео хромает
- Селебрити не узнаёт (Уилл Смит = какой-то Дональд)
- Иногда люди ходят как крабы
- НО ЭТО ВСЁ ФИГНЯ ПО СРАВНЕНИЮ С ПЛЮСАМИ!
🎯 БОНУСЫ:
ДОПОЛНИТЕЛЬНЫЕ ВОЗМОЖНОСТИ:
- Генерит картинки
- Умеет в чат-бота
- Пишет код
- И ВСЁ ЭТО БЕСПЛАТНО!
P.S. Для скептиков: в тесте Qwen набрал 10 очков, а ближайший конкурент всего 2!
P.P.S. В следующей статье: как я пытался сгенерировать свадебное видео и случайно создал фильм ужасов!
#QwenChat #БесплатныйAI #AlibabaРвётВсех #AIвидео #НахаляввуИкачественно
🔥5❤1🌭1
БИТВА НЕЙРОНОК 2025: DEEPSEEK VS QWEN - ЭПИЧНАЯ ЗАРУБА! 🤖
Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀
DeepSeek: 7/10 - Умный, но с характером
Qwen: 6/10 - Быстрый, но ленивый
P.S. А вы за кого - за математически неграмотного трудягу или за ленивого спринтера? Пишите в комментах! 🎮
#НейронныеВойны2025 #DeepSeekVSQwen #AIFailz #ТехноБлог #КтоКогоТупее
Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀
🎯 DEEPSEEK - САМОУВЕРЕННЫЙ ГИГАЧАД:
🔥 ТОП ФИЧИ:
Хавает код на 2800 строк (когда не падает)
Режим "Глубокое мышление" - можно подглядеть как он тупит думает
В LaTeX умеет, математику любит (но иногда путает)
С VASP'ом дружит (прям технарь!)
💩 ФЕЙЛЫ:
Путает 83 < 89 (математика на минималках)
Сервер постоянно в "бизи" улетает
С русским языком - швах (English, motherflucker, do you speak it?!)
Иногда просто троит, потому что МОЖЕТ 😅
🤖 QWEN - БЫСТРЫЙ, НО ЛЕНИВЫЙ:
😎 ПЛЮСЫ:
10К символов хавает (когда не бомбит)
В коротких диалогах шустрый
По-русски шпрехает без запинки
🤡 МИНУСЫ:
Код больше 10К строк = "многа букав, не асилил"
В копирайтинге - кэп очевидность
С VASP'ом на "вы" и через забор
🏆 ЭПИЧНЫЕ МОМЕНТЫ:
1️⃣ БАТТЛ С ФРУКТАМИ:
CopyDeepSeek: "Гранат - 83 ккал, Банан - 89 ккал...
А в списке банан ПЕРЕД гранатом, потому что... А ПОЧЕМУ БЫ И НЕТ!" 🍌
2️⃣ VASP ЧЕЛЛЕНДЖ:
DeepSeek: выдаёт формулы в LaTeX со сложным видом
Qwen: "Давайте разберем пошагово... ушёл в закат" 💀
3️⃣ КОД БАТТЛ:
DeepSeek: "2800 строк? ИЗИ! падает в обморок"
Qwen: "Более 10К? Извините, я пас!" 🏃♂️
🤔 ИТОГОВЫЙ СЧЁТ:
DeepSeek: 7/10 - Умный, но с характером
Qwen: 6/10 - Быстрый, но ленивый
🔮 ЧТО ДАЛЬШЕ?
Говорят, DeepSeek можно прикрутить вместо ChatGPT, поменяв только url и apikey! Звучит как "поменяй масло - получи Феррари"! 😂
🧠 ВЫВОД:
DeepSeek - для хардкорных технарей с крепкими нервами
Qwen - для тех, кто любит "быстро, но не очень"
P.S. А вы за кого - за математически неграмотного трудягу или за ленивого спринтера? Пишите в комментах! 🎮
#НейронныеВойны2025 #DeepSeekVSQwen #AIFailz #ТехноБлог #КтоКогоТупее
👍6🌭2❤1🤔1🫡1
🌋 АТТРАКЦИОН НЕВИДАННОЙ ЩЕДРОСТИ: PIKA 2.1 И MINIMAX СНОВА В ДЕЛЕ! 🌋
Привет, синтеты! Сегодня разбираем ГОРЯЧИЕ НОВИНКИ в мире AI-видео - свежий апдейт Pika Labs и новый режим директора в Minimax!
PIKA 2.1
MINIMAX
P.S. Для пользователей Pika 2.0: пора обновляться, ваши пираты теперь не будут разворачиваться спиной к камере!
P.P.S. В следующей статье: как я случайно создал сериал про викинга-полицейского с помощью Ingredients!
#Pika21 #MinimaxDirector #AIвидео #БабушкаСОгнеметом #ВикингКоп
Привет, синтеты! Сегодня разбираем ГОРЯЧИЕ НОВИНКИ в мире AI-видео - свежий апдейт Pika Labs и новый режим директора в Minimax!
PIKA 2.1
MINIMAX
🧠 PIKA 2.1 - ЧТО НОВОГО:
АПГРЕЙДЫ:
1080p (НАКОНЕЦ-ТО!)
Четкие детали как в IMAX
Движения как в жизни
Люди больше не мутанты!
🔬 ГДЕ ПРОКАЧАЛИСЬ:
НОВЫЕ ФИШКИ:
Руки больше не плавятся
Пальцы все на месте
Стабильность на высоте
ДАЖЕ БАБУШКА С ОГНЕМЁТОМ ПОЛУЧИЛАСЬ!
⚡️ РЕЖИМ ДИРЕКТОРА В MINIMAX:
КАК ЭТО РАБОТАЕТ:
Управление камерой в промпте
Три пресета на выбор
Движение слева-справа
СНИМАЕМ КАК СПИЛБЕРГ!
💊 ЗАБАВНЫЕ ФИШКИ:
НЕОЖИДАННЫЕ БОНУСЫ:
Все персонажи 70-х курят
Даже машины дымят!
Викинги в сериалах про копов
СЛУЧАЙНЫЙ БРЮС ЛИ-ТЕРМИНАТОР!
P.S. Для пользователей Pika 2.0: пора обновляться, ваши пираты теперь не будут разворачиваться спиной к камере!
P.P.S. В следующей статье: как я случайно создал сериал про викинга-полицейского с помощью Ingredients!
#Pika21 #MinimaxDirector #AIвидео #БабушкаСОгнеметом #ВикингКоп
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Демонстрация возможностей MINIMAX - Director
👍3
Техножнец
БИТВА НЕЙРОНОК 2025: DEEPSEEK VS QWEN - ЭПИЧНАЯ ЗАРУБА! 🤖 Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀 🎯 DEEPSEEK - САМОУВЕРЕННЫЙ ГИГАЧАД: 🔥 ТОП ФИЧИ: Хавает код…
Насчет сравнения. Сегодня посижу с архитектурой RUKALLAMA - покажу че к чему.
👍3
🚀 RUKALLAMA: ЧЕСТНЫЙ ТЕХНИЧЕСКИЙ РАЗБОР БЕЗ ПРИКРАС
Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!!
Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке.
Русский язык для неё будет родной, ограничений в плане языков нет и не должно быть (обязательно дополним другими языками)
Учится на малых данных (подтверждено)
Адаптируется к изменениям (проверено)
Стабильно держит структуру языка (доказано)
Да, мы использовали маркетинговые метрики для сравнения эффективности. Но сама технология реально работает и показывает результаты. Просто без лишнего хайпа.
БОЛЕЕ ПОДРОБНАЯ МЕТРИКА:
🧮 СЧИТАЕМ ЭФФЕКТИВНОСТЬ:
P.S. Да, мы немного перегнули с цифрами в маркетинге... Но попробуйте найти другую модель, которая научится русскому на 82MB данных! 😎
P.P.S. Если кто-то говорит, что это убьёт большие модели - не верьте! Это другой класс решений для других задач!
#RUKALLAMA #ЧестныйОбзор #НейроТехнологии #БезХайпа
Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!!
Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке.
Русский язык для неё будет родной, ограничений в плане языков нет и не должно быть (обязательно дополним другими языками)
🧮 ЧЕСТНАЯ МАТЕМАТИКА ЭФФЕКТИВНОСТИ:
Сравнение с GPT-2 (базовая линия):
- Данные: 40GB vs 0.182GB (×220)
- GPU память: 256GB vs 8GB (×32)
- GPU количество: 8 vs 1 (×8)
- Эпохи: 500 vs 183 (×2.7)
Общая эффективность ≈ 34,000х
НО! Это только для этапа "грамматической шизофазии"!
⚡️ РЕАЛЬНЫЕ ТЕХНИЧЕСКИЕ ФИШКИ:
Сплайны Колмогорова-Арнольда:
Адаптивные преобразования
Эффективная работа с малыми данными
Устойчивость к "забыванию"
RoPE имплементация:
Стабильное позиционное кодирование
Помогает при обновлении токенизатора
Поддерживает длинные последовательности
🎯 ЧТО РЕАЛЬНО УМЕЕТ:
Учится на малых данных (подтверждено)
Адаптируется к изменениям (проверено)
Стабильно держит структуру языка (доказано)
🔬 ТЕКУЩИЕ ОГРАНИЧЕНИЯ (БЕЗ ПРИКРАС):
Технические:
Пока на уровне "грамматической шизофазии"
Нет реального понимания смысла
Ограничения по контексту
Практические:
Требуется instruction tuning
Нужна доработка токенизатора
Зависимость от качества данных
📈 РЕАЛЬНЫЕ ПЕРСПЕКТИВЫ:
Ближайшие:
Доработка токенизатора
Расширение до 2GB данных
Интеграция инструкций
Долгосрочные:
Специализация под задачи
Улучшение семантики
Развитие архитектуры
💡 ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:
Эксперименты с малыми данными
Специализированные задачи
Исследовательские проекты
🎯 ИТОГОВЫЙ ВЕРДИКТ:
RUKALLAMA - это не мега-супер-революция, а рабочий инструмент с конкретными преимуществами и ограничениями. Главная фишка - эффективность на малых данных и ресурсах.
⚠️ ВАЖНОЕ ЗАМЕЧАНИЕ:
Да, мы использовали маркетинговые метрики для сравнения эффективности. Но сама технология реально работает и показывает результаты. Просто без лишнего хайпа.
БОЛЕЕ ПОДРОБНАЯ МЕТРИКА:
RUKALLAMA:
- Параметры: 24M
- Датасет: 82MB + 100MB
- GPU: 1× A100 (8GB)
- Эпохи: 183
- Время на эпоху: ~2 часа
GPT-2:
- Параметры: 124M
- Датасет: 40GB
- GPU: 8× V100 (32GB каждая)
- Эпохи: ~500
- Время на эпоху: ~12 часов
🧮 СЧИТАЕМ ЭФФЕКТИВНОСТЬ:
По данным: 40GB/0.182GB = 220x
2. По памяти: (32GB × 8)/(8GB × 1) = 32x
3. По железу: 8 GPU/1 GPU = 8x
4. По эпохам: 500/183 ≈ 2.7x
Общая эффективность: 220 × 32 × 8 × 2.7 = 152,064x
ДЕЛИМ НА 4.5 (пессимистичная поправка на неточности)
= 33,792x ≈ 34,000x
⚠️ ВАЖНЫЕ ОГОВОРКИ:
Это только для этапа "грамматической шизофазии"
Сравниваем только структурное обучение
Не учитываем качество генерации
📈 СРЕДНЯЯ ЭФФЕКТИВНОСТЬ (С ПОПРАВКАМИ):
1. Ресурсная: ~15-20x
2. Временная: ~24x
3. Данные: ~200x
4. Общая средняя: ~35x (консервативная оценка)
🎯 ГДЕ МЫ РЕАЛЬНО ВЫИГРЫВАЕМ:
Малые данные = быстрее обучение
Одна карта = проще масштабировать
Сплайны = меньше параметров
🤔 ГДЕ ПРОИГРЫВАЕМ:
Качество генерации (пока что)
Глубина понимания (временно)
Размер контекста (поправляется интеграцией новых фич)
💡 ИТОГО ПО ЭФФЕКТИВНОСТИ:
Маркетинговое число: 34,000x
Реальная средняя: ~35x
Правда посередине!
P.S. Да, мы немного перегнули с цифрами в маркетинге... Но попробуйте найти другую модель, которая научится русскому на 82MB данных! 😎
P.P.S. Если кто-то говорит, что это убьёт большие модели - не верьте! Это другой класс решений для других задач!
#RUKALLAMA #ЧестныйОбзор #НейроТехнологии #БезХайпа
👍12
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋
Привет, синтеты!
Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним, кто у кого слямзил, кто тут визионер, а кто просто надувает щёки!
Да кто вам поверит, Кевин, после того, как вы рассказывали про ИИ, которые "не глючат"!
P.S. Для тех, кто думает, что это всё серьёзно: ребята, это просто ИИ-балаган. Воруют, врут, надувают щёки — всё как всегда! Зато нам есть что обсудить.
P.P.S. В следующей статье: разберём кто всё-таки слямзил и где найти сливы нейронок, пока их совсем не прикрыли!
Привет, синтеты!
Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним, кто у кого слямзил, кто тут визионер, а кто просто надувает щёки!
⚔️ КТО ТУТ ВОРУЕТ, А КТО ****?
Американцы, как обиженные дети, вопят, что китайцы сперли их ИИ-секреты. Вспомнили про какие-то левые скачки трафика в их API. Мол, DeepSeek — это ChatGPT, но с другой стороны Великой Китайской Стены. Трамповские шавки по AI лают на всю округу, что китайцы украли все биты и байты!
Но, постойте! Юзеры, которые не едят ложкой чужие басни, кричат: "А OpenAI сами-то чем лучше?! На чужих данных тренируются, как крысы на помойке, и ещё возмущаются!" Короче, все хороши, прямо как в "Санта-Барбаре"!
🧠 КЕВИН ВЕЙЛ РАССКАЗЫВАЕТ СКАЗКИ ИЗ ДАВОСА
Кевин Вейл, этот директор по продуктам из OpenAI, вещает из Давоса, как попка-дурак:
Модели-то дешевеют В 100 РАЗ! И становятся умнее и быстрее. Какая невидаль, что технологии развиваются!
Их моделька o3 уже в топ-175 программистов в мире. Аплодисменты, стоя! (но скоро её кто-нибудь тоже обгонит, не переживайте).
Скоро ChatGPT станет ВАШИМ БРАУЗЕРНЫМ ДЬЯВОЛОМ! То есть, я хотел сказать, ассистентом. ИИ всё за вас сделает, только деньги несите!
УМНЫЕ РОБОТЫ?!
Через 2-3 года?
Да кто вам поверит, Кевин, после того, как вы рассказывали про ИИ, которые "не глючат"!
🌌 STARGATE - БОЛЬШОЙ РАСПИЛ ПО АЙТИШНОМУ
OpenAI, Oracle и SoftBank решили вбухать $500 МИЛЛИАРДОВ в новую AI-инфраструктуру. Назвали это дело "Stargate". Это как строить Звезду Смерти, только из кремния и багов. Типа, без кучи бабла у них нейронки не обучаются, и их всех обгонят. Их спасут только деньги, не иначе!
💥 КТО КОГО ПЕРЕИГРАЕТ В ЭТОЙ AI-РУЛЕТКЕ?
OpenAI вопит про регулирование, типа "давайте всех построим в шеренгу". Как будто это поможет им не проиграть эту гонку. Китайцы же просто клепают новые AI, пока америкосы строчат петиции. И кто тут умный, а кто просто бюрократ?
📲 КЕВИН ВЕЙЛ О РЕГУЛИРОВАНИИ:
Кевин Вейл, между тем, говорит, что AI типа уже регулируется в медицине (ага, ага, скоро и в туалете придётся по правилам какать). Боятся, что AI станет слишком умным (ну конечно, а они-то думали что будет, как с палкой-копалкой?). Хотят, чтобы всё было по правилам, но без перегибов! Короче, хотят и рыбку съесть, и на лодке покататься.
💡 ЦУКЕРБЕРГ VS АЛЬТМАН: КТО БОТАНИК, А КТО ВИЗИОНЕР?
Кевин ещё говорит, что Цукерберг структурный, а Альтман — визионер! Ну конечно, Цукерберг, наверное, таблицу в Экселе с ценами на AI-фишки ведёт, а Альтман просто воображает, как он поработит мир. Визионер, блин, надутый индюк!
P.S. Для тех, кто думает, что это всё серьёзно: ребята, это просто ИИ-балаган. Воруют, врут, надувают щёки — всё как всегда! Зато нам есть что обсудить.
P.P.S. В следующей статье: разберём кто всё-таки слямзил и где найти сливы нейронок, пока их совсем не прикрыли!
👍11
Техножнец
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋 Привет, синтеты! Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним…
🌋 И ШО?: А ЧТО НАМ ТО ДЕЛАТЬ, КОГДА КОРПОРАЦИИ БОРЮТСЯ ЗА КУСОК ПИРОГА?! 🌋
Привет, синтеты! Сейчас мы не просто ржём над чужими войнами, мы ищем СВОЙ ПУТЬ в этом AI-хаосе.
Готовьтесь к порции цинизма, здравого смысла и планам по спасению мира (ну или хотя бы своего мозга).
Новым моделям без миллионов баксов будет сложно выжить. Как ковать блоху, когда у тебя нет кувалды? Ответ: хитрыми путями и старыми железяками!
P.S. Для скептиков: Да, мы знаем, что это звучит как безумная идея. Но когда гениальные идеи были простыми?
P.P.S. В следующей статье: мы поговорим о динамических функциях активации и о том, как именно мы будем подковывать нашу блоху!
#RuKaLLaMA #НовыйAI #ДинамикаАксонов #Гибкость #Мозг #Адаптация #ПодкуёмБлоху #СинтетическиеДанные #КорпорацииОтдыхают
Привет, синтеты! Сейчас мы не просто ржём над чужими войнами, мы ищем СВОЙ ПУТЬ в этом AI-хаосе.
Готовьтесь к порции цинизма, здравого смысла и планам по спасению мира (ну или хотя бы своего мозга).
🤔 ЧТО ПРОИСХОДИТ?
ПРОБЛЕМЫ НА ПОВЕРХНОСТИ:
"Дистилляция моделей" скоро накроется медным тазом. Ну то есть, выжимать знания из больших моделей станет рискованным бизнесом. Корпорации прикроют лавочку, это ж понятно!
Новым моделям без миллионов баксов будет сложно выжить. Как ковать блоху, когда у тебя нет кувалды? Ответ: хитрыми путями и старыми железяками!
Вся эта AI-движуха - сплошная НЕПРОДУМАННОСТЬ! Сначала тренируют на чужих данных (привет OpenAI), а потом обвиняют других в воровстве. Чистой воды цирк и рыночные игрища!
🎯 ЧТО ДЕЛАТЬ НАМ?
НАШ ПЛАН:
Делаем адаптивные модели на мизерном количестве данных. Как?! Синтезируем сами из открытых источников!
Скармливаем эту информацию АРХИТЕКТУРЕ ЛЛМ СОВЕРШЕННО НОВОГО ТИПА!
Наш RuKaLLaMA (да-да, именно так!) будет похож на МОЗГ! (не на безмозглый трансформер, которые штампуют корпорации!)
🧠 В ЧЕМ ЦИМЕС ?
НАША ФИШКА:
RuKaLLaMA будет работать как живой мозг!
Гибкость, адаптивность, понимание контекста.
Всё как у нас, надеемся!
Современные трансформеры, конечно, вдохновлены мозгом, но они — как карикатура на настоящего гения.
Мы будем ИСПОЛЬЗОВАТЬ ГИБКОСТЬ АКСОНОВ, а не статичные функции активации!
В мозгу аксоны меняются в зависимости от стимулов.
Так почему функции активации в нейронке должны быть статичны?
Даёшь динамику и гибкость!
🔬 НАУЧНЫЙ АНАЛИЗ (для тех, кто не в танке): ПРУФ
Раньше считали, что аксоны статичны. Но исследования показали: они могут МЕНЯТЬСЯ!
Статичные функции активации = плохая адаптация, а динамичные = гибкость и мощь!
Биологические нейроны: порог возбуждения как в функциях активации.
Но у нас всё не так тупо, всё сложнее и круче!
Нелинейность: как и в мозге, наша модель будет решать сложные задачи, используя гибкость и динамику.
💊 ВЫВОД:
МЫ НЕ СДАДИМСЯ:
Пока корпорации бьются за рынок, мы строим свой мир, свой AI, который будет умнее, гибче и ближе к мозгу.
Мы не будем зависеть от их денег и их правил. Мы будем ПОДКОВЫВАТЬ БЛОХУ и рвать шаблоны!
RuKaLLaMA - это наш ответ на тупость корпоративного AI. Это наше будущее!
P.S. Для скептиков: Да, мы знаем, что это звучит как безумная идея. Но когда гениальные идеи были простыми?
P.P.S. В следующей статье: мы поговорим о динамических функциях активации и о том, как именно мы будем подковывать нашу блоху!
#RuKaLLaMA #НовыйAI #ДинамикаАксонов #Гибкость #Мозг #Адаптация #ПодкуёмБлоху #СинтетическиеДанные #КорпорацииОтдыхают
❤11👏3👍2🔥1
🌋 ЧТО ТАМ С ДАТАСЕТАМИ? АНАЛИЗ ДАННЫХ И ПУТИ РАЗВИТИЯ AI 🌋
Привет, реалисты! Сегодня мы без лишних эмоций разберём, куда катится AI-индустрия, какие проблемы на горизонте и что мы можем с этим сделать. Забудьте про красивые лозунги, сейчас мы посмотрим на ситуацию трезвым взглядом.
ЧТО ПРОИСХОДИТ:
P.S. Да, это сложнее, чем просто качать данные из интернета, но это единственный путь к созданию действительно умного и независимого AI.
P.P.S. В следующей статье: погрузимся в детали того, как мы будем решать эти задачи и как RuKaLLaMA поможет нам в этом!
#AIразвитие #RuKaLLaMA #МеньшеДанныхБольшеУма #Эффективность #ОткрытыйAI #Конфиденциальность #Децентрализация #НоваяАрхитектура
Привет, реалисты! Сегодня мы без лишних эмоций разберём, куда катится AI-индустрия, какие проблемы на горизонте и что мы можем с этим сделать. Забудьте про красивые лозунги, сейчас мы посмотрим на ситуацию трезвым взглядом.
🤔 ПРОБЛЕМЫ С ДАННЫМИ:
РЕАЛЬНОСТЬ ТАКОВА:
Зависимость от больших данных:
Современные модели (особенно трансформеры) требуют огромных объёмов данных для обучения. Это значит, что доступ к этим данным (и к вычислительным ресурсам для их обработки) контролируется крупными корпорациями.
Некачественные данные:
Большинство данных в интернете — это шум, мусор, и откровенная ложь. Обучение на таких данных приводит к моделям, которые могут выдавать бессмысленные или даже вредные результаты.
Угроза конфиденциальности:
Корпорации собирают наши личные данные, чтобы обучать свои модели. Это создаёт огромные риски для нашей конфиденциальности и безопасности.
Смещение:
Модели, обученные на однобоких данных, могут повторять и усиливать существующие предубеждения (расовые, гендерные и т.д.).
Ограничения на креативность:
Зависимость от больших данных мешает создавать новые, нешаблонные подходы. Все модели становятся похожими, как штампованные продукты.
🔬 АНАЛИЗ ТЕКУЩЕЙ СИТУАЦИИ:
ЧТО ПРОИСХОДИТ:
Трансформеры доминируют:
Архитектура трансформеров стала стандартом де-факто в обработке текста. Однако она требует огромных вычислительных мощностей и большого количества данных. Это как ездить на танке за хлебом.
Гонка за данными:
Корпорации ведут борьбу за доступ к данным, часто не гнушаясь сомнительными методами сбора и использования.
Несбалансированное развитие:
Основной упор делается на увеличение масштаба моделей, а не на поиск более эффективных алгоритмов. Это как наращивать мускулы, а не развивать мозг.
Манипуляции с данными:
Компании сами решают на каких данных тренировать модель и как формировать ее мнение.
⚡️ АЛЬТЕРНАТИВНЫЕ ПУТИ:
ЧТО МОЖНО ДЕЛАТЬ:
Меньше данных, больше эффективности: Разработка моделей, способных обучаться на меньших объёмах данных, но с большей эффективностью. Это как микропроцессор против суперкомпьютера.
Эффективное извлечение признаков:
Поиск способов извлекать суть из данных, а не просто запоминать их.
Новые архитектуры:
Разработка новых архитектур, не зависящих от трансформеров.
Синтез данных:
Создание искусственных данных, которые могут компенсировать недостаток реальных данных. Но надо понимать как.
Децентрализация:
Развитие децентрализованных моделей, которые не зависят от корпораций.
Прямое взаимодействие с данными:
Изучение возможности извлечения из данных неких "молекул" без потери признаков.
💊 ЦЕЛИ И ПЕРСПЕКТИВЫ:
Развитие открытых технологий: Создание открытых инструментов и моделей, которые будут доступны всем, а не только корпорациям.
Борьба за конфиденциальность: Защита наших личных данных от злоупотреблений.
Автономность: Развитие моделей без привязанности к корпоративным интересам и их предубеждениям.
🎯 ВЫВОД:
Мы видим, что текущая гонка за данными - это тупиковый путь. Нам нужно переосмыслить, как мы строим AI, и перейти от "больше" к "эффективнее". Мы будем идти своим путём!
P.S. Да, это сложнее, чем просто качать данные из интернета, но это единственный путь к созданию действительно умного и независимого AI.
P.P.S. В следующей статье: погрузимся в детали того, как мы будем решать эти задачи и как RuKaLLaMA поможет нам в этом!
#AIразвитие #RuKaLLaMA #МеньшеДанныхБольшеУма #Эффективность #ОткрытыйAI #Конфиденциальность #Децентрализация #НоваяАрхитектура
❤4😁1🤔1