Техножнец – Telegram
Техножнец
1.63K subscribers
1.04K photos
210 videos
12 files
372 links
Канал моих увлечений и поделок. Все ,что я делаю и выкладываю здесь - делается с любовью.
Download Telegram
Ну штош. Машина страшная.
Буду завтра уже тестировать, сегодня голова очень мыльная.

В Петербурге сегодня проливной дождь и температура типа 2 градуса тепла.

В январе это настоящий ад, особенно здесь. Поэтому, я просто не вывезу.

Желаю вам отличного вечера.
Если будут новости по ИИ - Я вам отпишусь.

Но вы должны понимать, что после такой покупки пути обратно больше нет. Да, мы не deepsea ,да у нас нет кучи финансирования....да у нас есть только советское наследие в виде теоремы Колмогорова-Арнольда , но мы будем стараться.

В команде PPRFNK.TECH по этой теме (по теме ии) я самый глубоко разбирающийся специалист, но я обязательно наших парней и девчат подтяну.

Я буду стараться работать открыто и показывать свои проекты + выкладываю репозиторий на гитхаб.

Впереди создание грамотных инструментов для работы с датасетами, ии и для производства новых данных.

Всё это будет требовать времени, бюджетом и терпения. Если вы будете все это дело комментировать, лайкать и тестировать, то лично я буду СЧАСТЛИВ.
229👍17🔥4
🌋 OPENAI ОБЯЗУЕТСЯ ПОМОГАТЬ КОНКУРЕНТАМ: САМЫЙ ДИКИЙ ПУНКТ В ИХ УСТАВЕ! 🌋

Привет, синтеты! Я тут копался в уставе OpenAI и нашёл БЕЗУМНЫЙ пункт, о котором, похоже, все забыли. Включая Сэма Альтмана!

🧠 ЧТО ЗА ДИЧЬ:


ПРЯМАЯ ЦИТАТА:
"Если проект, разделяющий наши ценности и заботящийся о безопасности, приблизится к созданию AGI раньше нас, мы обязуемся ПРЕКРАТИТЬ КОНКУРЕНЦИЮ и НАЧАТЬ ПОМОГАТЬ этому проекту."


УСЛОВИЕ ТРИГГЕРА:


"Вероятность успеха больше 50%"
"В течение следующих двух лет"
И ЭТО ВСЁ ЕЩЁ В УСТАВЕ!


🔬 ПОЧЕМУ ЭТО ДИКО:

КОНТЕКСТ:

DeepSeek уже обгоняет o1
Anthropic дышит в спину
Google выкатывает Gemini
А УСТАВ ВСЁ ЕЩЁ ДЕЙСТВУЕТ!


⚡️ ПРОТИВОРЕЧИЯ:


РЕАЛЬНОСТЬ VS УСТАВ:

OpenAI воюет со всеми
Маск судится с ними
Альтман играет в политику
А про устав все "забыли"


💊 ЧТО ЭТО ЗНАЧИТ:


ДЛЯ ИНДУСТРИИ:

OpenAI нарушает свои принципы? ( Ой блять так удивляет...)
Или никто не близок к AGI?
Или это просто слова?
ОТВЕТОВ НЕТ!


P.S. Для OpenAI: может, пора обновить устав? Или начать его соблюдать?
P.P.S. След. статья: как Microsoft отреагирует, когда узнает об этом пункте!


ПРУФ: https://openai.com/charter/

КОММЕНТАРИЙ РЕДАКЦИИ: Это ж какими надо быть лохами...

#OpenAI #УставКотрогоНет #AGIгонка #КтоКогоПобедит
😁6🌚2👍1
🌋 ПЕРВЫЙ СКАНДАЛ DEEPSEEK: AI ОКАЗАЛСЯ С КИТАЙСКОЙ ЦЕНЗУРОЙ! 🌋

Привет, синтеты! Помните, как мы недавно восхищались DeepSeek? Так вот, у этой истории появилась ТЁМНАЯ СТОРОНА!

🧠 ЧТО СЛУЧИЛОСЬ:


СУТЬ СКАНДАЛА:

Индийцы обнаружили странности
AI отказывается говорить о спорных территориях
"Извините, это вне моих возможностей" (СЕРЬЁЗНО?!)
Три штата просто "исчезли"


🔬 КОНКРЕТНЫЕ СЛУЧАИ:


ЗАПРЕТНЫЕ ТЕРРИТОРИИ:

Аруначал-Прадеш (нет в чате)
Ассам (тоже нет)
Нагаленд (и этого нет)
ВСЕ ЭТО СПОРНЫЕ ТЕРРИТОРИИ!


⚡️ ПОЧЕМУ ЭТО ВАЖНО:


ВЫВОДЫ:

Китайская цензура в действии
AI с политической повесткой
"Бесплатный" сыр оказался с уловкой
DeepSeek = инструмент пропаганды?


💊 ПОСЛЕДСТВИЯ:


ДЛЯ ПОЛЬЗОВАТЕЛЕЙ:

Нельзя верить всему бесплатному
AI может быть предвзятым
Нужно проверять все источники
ДУМАЙТЕ СВОЕЙ ГОЛОВОЙ!


P.S. Для тех, кто думал, что китайский AI будет независимым - добро пожаловать в реальность!
P.P.S. Следующая статья: какие ещё темы запрещены в DeepSeek? Спойлер: список растёт!


#DeepSeek #КитайскаяЦензура #AIсГраницами #ПолитикаВКоде
😁3💯1
🌋 DEEPSEEK R1: КАК КИТАЙЦЫ СОБРАЛИ ФЕРРАРИ ИЗ ЗАПЧАСТЕЙ ОТ ЖИГУЛЕЙ! 🌋

Привет, синтеты! Сегодня разберём САМЫЙ ДИКИЙ СЛИВ 2025 года - как китайцы сделали топовый AI за копейки и заставили Сэма Альтмана нервно курить в сторонке!

Детальное видео: https://www.youtube.com/watch?v=r3TpcHebtxM&ab_channel=Dave%27sGarage

🧠 ЧТО ЗА ЗВЕРЬ:


СУТЬ ПРОЕКТА:

- AI-модель размером с кота
- Работает как слон
- Стоит как велосипед
- И ВСЁ ЭТО БЕЗ ТОПОВЫХ NVIDIA!


🔬 КАК ОНИ ЭТО СДЕЛАЛИ:


ХИТРЫЙ ПЛАН:

- Взяли большие модели как учителей
- Сжали знания как джинсы после стирки
- Собрали panel of experts из разных AI
- ПОЛУЧИЛИ МОНСТРА ЗА $6 ЛЯМОВ!


⚡️ ТЕХНИЧЕСКИЕ ДЕТАЛИ:


ГДЕ МОЖНО ЗАПУСТИТЬ:

- На обычном ноуте (серьёзно!)
- На Thread Ripper + RX 680
- Даже на MacBook Pro!
- НА ORIN NANO ЗА $249, КАРЛ!


💊 ПОЧЕМУ ЭТО БОМБА:


ПОСЛЕДСТВИЯ:

- Microsoft и Nvidia в шоке
- OpenAI пересчитывает бюджеты
- Stargate за $500B выглядит как МЕМАСИК
- Маленькие компании: "Наше время пришло!"


🎯 ПОДВОДНЫЕ КАМНИ:


НЕ ВСЁ ТАК РАДУЖНО:

- Галлюцинации бывают (как после пятницы)
- Узкие задачи не его конёк
- Зависит от качества "учителей"
- НО ВСЁ РАВНО ОГОНЬ!


P.S. Для скептиков: да, модель реально отвечает про события на площади Тяньаньмэнь. По крайней мере, пока...

P.P.S. В следующей статье: как я пытался запустить DeepSeek на калькуляторе. Спойлер: почти получилось!


#DeepSeekR1 #КитайскийПрорыв #AIреволюция #ФеррариИзЖигулей #SamAltmanПлачет
👍3
Media is too big
VIEW IN TELEGRAM
🌋 QWEN2.5-MAX: ALIBABA ВЫКАТИЛА МОНСТРА, КОТОРЫЙ СОЖРАЛ DEEPSEEK V3! 🌋

CHAT

Привет, синтеты! Сегодня разбираем АБСОЛЮТНОЕ БЕЗУМИЕ - Alibaba показала свою новую игрушку, и это не просто AI, это НАСТОЯЩИЙ БОСС ФИНАЛЬНОГО УРОВНЯ!

🧠 ЧТО ЗА ЗВЕРЬ:


МАСШТАБЫ БЕЗУМИЯ:

- 20 ТРИЛЛИОНОВ токенов обучения
- MoE архитектура (много экспертов в одной башке!)
- SFT + RLHF (научили хорошим манерам)
- БОЛЬШЕ ЧЕМ ВАШ МОЗГ!


🔬 РЕЗУЛЬТАТЫ ТЕСТОВ:


РАЗГРОМ КОНКУРЕНТОВ:

- DeepSeek V3 плачет в уголке
- GPT-4o нервно курит
- Claude-3.5 пошёл медитировать
- ПОРВАЛИ ВСЕХ В ARENA-HARD!


⚡️ ГДЕ ОСОБЕННО ЖЖЁТ:


УБИЙСТВЕННЫЕ ПОКАЗАТЕЛИ:

- LiveCodeBench (кодит как бог!)
- MMLU-Pro (знает больше профессора)
- GPQA-Diamond (решает всё!)
- И ЭТО ТОЛЬКО НАЧАЛО!


💊 КАК ПОПРОБОВАТЬ:


ДВА ВАРИАНТА:

- Qwen Chat (для простых смертных)
- API доступ (для гуру)


КОД ДЛЯ ИЗБРАННЫХ:
from openai import OpenAI
client = OpenAI(
api_key="ваш_ключ_от_рая",
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
# И ПОЕХАЛИ!


🎯 ЧТО ДАЛЬШЕ:


ПЛАНЫ НА БУДУЩЕЕ:

- Сделать AI умнее людей (УЖЕ БЛИЗКО!)
- Масштабировать до бесконечности
- Исследовать неизведанное
- ПОКОРИТЬ МИР (шутка, или нет?)


P.S. Для скептиков: модель уже доступна в облаке Alibaba. Идите проверяйте!

P.P.S. В следующей статье: как я пытался запустить Qwen2.5-Max на своём тостере!

#QwenMax #AIбезтормозов #AlibabaРвётВсех #AIгонка #ПрощайGPT4
🔥5🤯41😁1
Forwarded from Мемсолог
😁39
🌋 НАРОДНЫЙ ТЕСТ-ДРАЙВ: КИТАЙСКИЕ НЕЙРОНКИ ГЛАЗАМИ ПРОСТЫХ СМЕРТНЫХ! 🌋

Привет, синтеты! Давайте устроим ЧЕСТНЫЙ РАЗБОР полётов - что там у китайцев в нейрошопе и стоит ли оно того?


🧠 ЧТО ТЕСТИМ:


- DeepSeek (новый хайп!)
- Qwen (от Али-бабы и 40 нейронов)
- Другие подозрительные AI
- ВСЁ, ЧТО ВЫШЛО ИЗ ПОДНЕБЕСНОЙ!


🔬 ЧТО ХОТИМ УЗНАТЬ:


ГЛАВНЫЕ ВОПРОСЫ:

- Реально ли оно так хорошо?
- Где косяки и баги?
- С чем можно сравнить?
- СТОИТ ЛИ ВООБЩЕ СВЯЗЫВАТЬСЯ?


⚡️ НУЖНЫ ВАШИ ИСТОРИИ:


РАССКАЖИТЕ:

- Какие модели юзали?
- Что понравилось/бомбануло?
- С чем сравнивали?
- Где облажались китайцы?


💊 ПРАВИЛА УЧАСТИЯ:


КАК ПИСАТЬ ОТЗЫВ:

- Только реальный опыт
- Никакой воды и хайпа
- Конкретные примеры
- БЕЗ РЕКЛАМЫ И ПРОПЛАЧЕННОГО БРЕДА!


P.S. Для осторожных: ваши отзывы будут использованы в следующей статье (но только с вашего согласия!)


P.P.S. Давайте сначала про технологии, а политику оставим на потом!

#КитайскийAI #НародныйТест #ЧестныйОбзор #AIгонка #DeepSeekVSQwen

ПОГНАЛИ В КОММЕНТЫ! 👇
🌋 ТЕСТИМ QWEN CHAT: AI-ВИДЕОГЕНЕРАТОР КОТОРЫЙ ПОРВАЛ ВСЕХ ЗА $0! 🌋

Привет, синтеты! Сегодня у нас МЕГА-ТЕСТ нового видеогенератора от Alibaba, который ШОКИРОВАЛ индустрию!

🧠 ЧТО ЗА ЗВЕРЬ:


ОСНОВНЫЕ ФИШКИ:

- Абсолютно бесплатный
- Без лимитов (ПОКА ЧТО!)
- Делает видео лучше платных
- РАБОТАЕТ ПРЯМО СЕЙЧАС!


🔬 ТЕСТ-ДРАЙВ:


СРАВНИЛИ С ТОПАМИ:

- Pix Verse 3.5 (новенький!)
- Kling 1.6 Pro (дорогой!)
- Hailuo Minimax (пафосный!)
И... QWEN ПОРВАЛ ВСЕХ!


⚡️ В ЧЁМ КРУТ:


ЛУЧШИЕ СЦЕНЫ:

- Зомби в торговом центре
- Драконы над городом
- Разрезание помидоров (ДА, СЕРЬЁЗНО!)
- Балерина на льдине (БЕЗ ЛИШНИХ РУК!)


💊 ГДЕ СЛАБЕНЬКИЙ:


КОСЯКИ ЕСТЬ:

- Текст в видео хромает
- Селебрити не узнаёт (Уилл Смит = какой-то Дональд)
- Иногда люди ходят как крабы
- НО ЭТО ВСЁ ФИГНЯ ПО СРАВНЕНИЮ С ПЛЮСАМИ!


🎯 БОНУСЫ:


ДОПОЛНИТЕЛЬНЫЕ ВОЗМОЖНОСТИ:

- Генерит картинки
- Умеет в чат-бота
- Пишет код
- И ВСЁ ЭТО БЕСПЛАТНО!


P.S. Для скептиков: в тесте Qwen набрал 10 очков, а ближайший конкурент всего 2!

P.P.S. В следующей статье: как я пытался сгенерировать свадебное видео и случайно создал фильм ужасов!


#QwenChat #БесплатныйAI #AlibabaРвётВсех #AIвидео #НахаляввуИкачественно
🔥51🌭1
БИТВА НЕЙРОНОК 2025: DEEPSEEK VS QWEN - ЭПИЧНАЯ ЗАРУБА! 🤖

Йоу, технари! Сегодня у нас МЕГА-ОБЗОР двух нейронок, которые пытаются захватить мир! Погнали разбирать кто круче, а кто на расслабоне! 🚀

🎯 DEEPSEEK - САМОУВЕРЕННЫЙ ГИГАЧАД:


🔥 ТОП ФИЧИ:

Хавает код на 2800 строк (когда не падает)
Режим "Глубокое мышление" - можно подглядеть как он тупит думает
В LaTeX умеет, математику любит (но иногда путает)
С VASP'ом дружит (прям технарь!)


💩 ФЕЙЛЫ:

Путает 83 < 89 (математика на минималках)
Сервер постоянно в "бизи" улетает
С русским языком - швах (English, motherflucker, do you speak it?!)
Иногда просто троит, потому что МОЖЕТ 😅


🤖 QWEN - БЫСТРЫЙ, НО ЛЕНИВЫЙ:


😎 ПЛЮСЫ:

10К символов хавает (когда не бомбит)
В коротких диалогах шустрый
По-русски шпрехает без запинки


🤡 МИНУСЫ:

Код больше 10К строк = "многа букав, не асилил"
В копирайтинге - кэп очевидность
С VASP'ом на "вы" и через забор


🏆 ЭПИЧНЫЕ МОМЕНТЫ:


1️⃣ БАТТЛ С ФРУКТАМИ:

CopyDeepSeek: "Гранат - 83 ккал, Банан - 89 ккал...
А в списке банан ПЕРЕД гранатом, потому что... А ПОЧЕМУ БЫ И НЕТ!" 🍌


2️⃣ VASP ЧЕЛЛЕНДЖ:

DeepSeek: выдаёт формулы в LaTeX со сложным видом
Qwen: "Давайте разберем пошагово... ушёл в закат" 💀


3️⃣ КОД БАТТЛ:

DeepSeek: "2800 строк? ИЗИ! падает в обморок"
Qwen: "Более 10К? Извините, я пас!" 🏃‍♂️


🤔 ИТОГОВЫЙ СЧЁТ:


DeepSeek: 7/10 - Умный, но с характером
Qwen: 6/10 - Быстрый, но ленивый


🔮 ЧТО ДАЛЬШЕ?

Говорят, DeepSeek можно прикрутить вместо ChatGPT, поменяв только url и apikey! Звучит как "поменяй масло - получи Феррари"! 😂


🧠 ВЫВОД:

DeepSeek - для хардкорных технарей с крепкими нервами
Qwen - для тех, кто любит "быстро, но не очень"


P.S. А вы за кого - за математически неграмотного трудягу или за ленивого спринтера? Пишите в комментах! 🎮

#НейронныеВойны2025 #DeepSeekVSQwen #AIFailz #ТехноБлог #КтоКогоТупее
👍6🌭21🤔1🫡1
🌋 АТТРАКЦИОН НЕВИДАННОЙ ЩЕДРОСТИ: PIKA 2.1 И MINIMAX СНОВА В ДЕЛЕ! 🌋

Привет, синтеты! Сегодня разбираем ГОРЯЧИЕ НОВИНКИ в мире AI-видео - свежий апдейт Pika Labs и новый режим директора в Minimax!

PIKA 2.1
MINIMAX

🧠 PIKA 2.1 - ЧТО НОВОГО:


АПГРЕЙДЫ:

1080p (НАКОНЕЦ-ТО!)
Четкие детали как в IMAX
Движения как в жизни
Люди больше не мутанты!


🔬 ГДЕ ПРОКАЧАЛИСЬ:


НОВЫЕ ФИШКИ:

Руки больше не плавятся
Пальцы все на месте
Стабильность на высоте
ДАЖЕ БАБУШКА С ОГНЕМЁТОМ ПОЛУЧИЛАСЬ!


⚡️ РЕЖИМ ДИРЕКТОРА В MINIMAX:


КАК ЭТО РАБОТАЕТ:

Управление камерой в промпте
Три пресета на выбор
Движение слева-справа
СНИМАЕМ КАК СПИЛБЕРГ!


💊 ЗАБАВНЫЕ ФИШКИ:


НЕОЖИДАННЫЕ БОНУСЫ:

Все персонажи 70-х курят
Даже машины дымят!
Викинги в сериалах про копов
СЛУЧАЙНЫЙ БРЮС ЛИ-ТЕРМИНАТОР!


P.S. Для пользователей Pika 2.0: пора обновляться, ваши пираты теперь не будут разворачиваться спиной к камере!
P.P.S. В следующей статье: как я случайно создал сериал про викинга-полицейского с помощью Ingredients!


#Pika21 #MinimaxDirector #AIвидео #БабушкаСОгнеметом #ВикингКоп
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Демонстрация возможностей MINIMAX - Director
👍3
🚀 RUKALLAMA: ЧЕСТНЫЙ ТЕХНИЧЕСКИЙ РАЗБОР БЕЗ ПРИКРАС

Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!!
Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке.
Русский язык для неё будет родной, ограничений в плане языков нет и не должно быть (обязательно дополним другими языками)

🧮 ЧЕСТНАЯ МАТЕМАТИКА ЭФФЕКТИВНОСТИ:


Сравнение с GPT-2 (базовая линия):

- Данные: 40GB vs 0.182GB (×220)
- GPU память: 256GB vs 8GB (×32)
- GPU количество: 8 vs 1 (×8)
- Эпохи: 500 vs 183 (×2.7)


Общая эффективность ≈ 34,000х
НО! Это только для этапа "грамматической шизофазии"!


⚡️ РЕАЛЬНЫЕ ТЕХНИЧЕСКИЕ ФИШКИ:


Сплайны Колмогорова-Арнольда:


Адаптивные преобразования
Эффективная работа с малыми данными
Устойчивость к "забыванию"



RoPE имплементация:


Стабильное позиционное кодирование
Помогает при обновлении токенизатора
Поддерживает длинные последовательности


🎯 ЧТО РЕАЛЬНО УМЕЕТ:


Учится на малых данных (подтверждено)
Адаптируется к изменениям (проверено)
Стабильно держит структуру языка (доказано)


🔬 ТЕКУЩИЕ ОГРАНИЧЕНИЯ (БЕЗ ПРИКРАС):


Технические:


Пока на уровне "грамматической шизофазии"
Нет реального понимания смысла
Ограничения по контексту



Практические:


Требуется instruction tuning
Нужна доработка токенизатора
Зависимость от качества данных


📈 РЕАЛЬНЫЕ ПЕРСПЕКТИВЫ:


Ближайшие:


Доработка токенизатора
Расширение до 2GB данных
Интеграция инструкций



Долгосрочные:


Специализация под задачи
Улучшение семантики
Развитие архитектуры


💡 ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:


Эксперименты с малыми данными
Специализированные задачи
Исследовательские проекты


🎯 ИТОГОВЫЙ ВЕРДИКТ:


RUKALLAMA - это не мега-супер-революция, а рабочий инструмент с конкретными преимуществами и ограничениями. Главная фишка - эффективность на малых данных и ресурсах.


⚠️ ВАЖНОЕ ЗАМЕЧАНИЕ:


Да, мы использовали маркетинговые метрики для сравнения эффективности. Но сама технология реально работает и показывает результаты. Просто без лишнего хайпа.


БОЛЕЕ ПОДРОБНАЯ МЕТРИКА:

RUKALLAMA:
- Параметры: 24M
- Датасет: 82MB + 100MB
- GPU: 1× A100 (8GB)
- Эпохи: 183
- Время на эпоху: ~2 часа


GPT-2:
- Параметры: 124M
- Датасет: 40GB
- GPU: 8× V100 (32GB каждая)
- Эпохи: ~500
- Время на эпоху: ~12 часов


🧮 СЧИТАЕМ ЭФФЕКТИВНОСТЬ:

По данным: 40GB/0.182GB = 220x
2. По памяти: (32GB × 8)/(8GB × 1) = 32x
3. По железу: 8 GPU/1 GPU = 8x
4. По эпохам: 500/183 ≈ 2.7x


Общая эффективность: 220 × 32 × 8 × 2.7 = 152,064x
ДЕЛИМ НА 4.5 (пессимистичная поправка на неточности)
= 33,792x ≈ 34,000x


⚠️ ВАЖНЫЕ ОГОВОРКИ:


Это только для этапа "грамматической шизофазии"
Сравниваем только структурное обучение
Не учитываем качество генерации


📈 СРЕДНЯЯ ЭФФЕКТИВНОСТЬ (С ПОПРАВКАМИ):

1. Ресурсная: ~15-20x
2. Временная: ~24x
3. Данные: ~200x
4. Общая средняя: ~35x (консервативная оценка)


🎯 ГДЕ МЫ РЕАЛЬНО ВЫИГРЫВАЕМ:

Малые данные = быстрее обучение
Одна карта = проще масштабировать
Сплайны = меньше параметров


🤔 ГДЕ ПРОИГРЫВАЕМ:

Качество генерации (пока что)
Глубина понимания (временно)
Размер контекста (поправляется интеграцией новых фич)


💡 ИТОГО ПО ЭФФЕКТИВНОСТИ:

Маркетинговое число: 34,000x
Реальная средняя: ~35x
Правда посередине!


P.S. Да, мы немного перегнули с цифрами в маркетинге... Но попробуйте найти другую модель, которая научится русскому на 82MB данных! 😎

P.P.S. Если кто-то говорит, что это убьёт большие модели - не верьте! Это другой класс решений для других задач!


#RUKALLAMA #ЧестныйОбзор #НейроТехнологии #БезХайпа
👍12
Техножнец pinned «🚀 RUKALLAMA: ЧЕСТНЫЙ ТЕХНИЧЕСКИЙ РАЗБОР БЕЗ ПРИКРАС Привет, синтеты! Тут уже 620 подписчиков, а некоторые даже не в курсе за флагманский проект паблика!! Речь об отечественной языковой модели RUKALLAMA, которую я построил для обучения на русском языке. Русский…»
Forwarded from X-MEM (Terios)
😁15🤩1🤨1
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋

Привет, синтеты!

Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним, кто у кого слямзил, кто тут визионер, а кто просто надувает щёки!

⚔️ КТО ТУТ ВОРУЕТ, А КТО ****?


Американцы, как обиженные дети, вопят, что китайцы сперли их ИИ-секреты. Вспомнили про какие-то левые скачки трафика в их API. Мол, DeepSeek — это ChatGPT, но с другой стороны Великой Китайской Стены. Трамповские шавки по AI лают на всю округу, что китайцы украли все биты и байты!


Но, постойте! Юзеры, которые не едят ложкой чужие басни, кричат: "А OpenAI сами-то чем лучше?! На чужих данных тренируются, как крысы на помойке, и ещё возмущаются!" Короче, все хороши, прямо как в "Санта-Барбаре"!


🧠 КЕВИН ВЕЙЛ РАССКАЗЫВАЕТ СКАЗКИ ИЗ ДАВОСА


Кевин Вейл, этот директор по продуктам из OpenAI, вещает из Давоса, как попка-дурак:

Модели-то дешевеют В 100 РАЗ! И становятся умнее и быстрее. Какая невидаль, что технологии развиваются!
Их моделька o3 уже в топ-175 программистов в мире. Аплодисменты, стоя! (но скоро её кто-нибудь тоже обгонит, не переживайте).
Скоро ChatGPT станет ВАШИМ БРАУЗЕРНЫМ ДЬЯВОЛОМ! То есть, я хотел сказать, ассистентом. ИИ всё за вас сделает, только деньги несите!


УМНЫЕ РОБОТЫ?! 
Через 2-3 года?


Да кто вам поверит, Кевин, после того, как вы рассказывали про ИИ, которые "не глючат"!

🌌 STARGATE - БОЛЬШОЙ РАСПИЛ ПО АЙТИШНОМУ

OpenAI, Oracle и SoftBank решили вбухать $500 МИЛЛИАРДОВ в новую AI-инфраструктуру. Назвали это дело "Stargate". Это как строить Звезду Смерти, только из кремния и багов. Типа, без кучи бабла у них нейронки не обучаются, и их всех обгонят. Их спасут только деньги, не иначе!


💥 КТО КОГО ПЕРЕИГРАЕТ В ЭТОЙ AI-РУЛЕТКЕ?

OpenAI вопит про регулирование, типа "давайте всех построим в шеренгу". Как будто это поможет им не проиграть эту гонку. Китайцы же просто клепают новые AI, пока америкосы строчат петиции. И кто тут умный, а кто просто бюрократ?


📲 КЕВИН ВЕЙЛ О РЕГУЛИРОВАНИИ:

Кевин Вейл, между тем, говорит, что AI типа уже регулируется в медицине (ага, ага, скоро и в туалете придётся по правилам какать). Боятся, что AI станет слишком умным (ну конечно, а они-то думали что будет, как с палкой-копалкой?). Хотят, чтобы всё было по правилам, но без перегибов! Короче, хотят и рыбку съесть, и на лодке покататься.


💡 ЦУКЕРБЕРГ VS АЛЬТМАН: КТО БОТАНИК, А КТО ВИЗИОНЕР?

Кевин ещё говорит, что Цукерберг структурный, а Альтман — визионер! Ну конечно, Цукерберг, наверное, таблицу в Экселе с ценами на AI-фишки ведёт, а Альтман просто воображает, как он поработит мир. Визионер, блин, надутый индюк!


P.S. Для тех, кто думает, что это всё серьёзно: ребята, это просто ИИ-балаган. Воруют, врут, надувают щёки — всё как всегда! Зато нам есть что обсудить.

P.P.S. В следующей статье: разберём кто всё-таки слямзил и где найти сливы нейронок, пока их совсем не прикрыли!
👍11
Техножнец
🌋 ОПЯТЬ?: КТО КОГО ОБОКРАЛ, И ПОЧЕМУ ЭТО ВСЁ ТАКОЙ ЦИРК?! 🌋 Привет, синтеты! Сегодня мы врываемся в самое сердце AI-балагана, где "святые" американские корпорации скрежещут зубами, а китайские гении подмигивают с ухмылкой. Пристегнитесь, сейчас мы выясним…
🌋 И ШО?: А ЧТО НАМ ТО ДЕЛАТЬ, КОГДА КОРПОРАЦИИ БОРЮТСЯ ЗА КУСОК ПИРОГА?! 🌋

Привет, синтеты! Сейчас мы не просто ржём над чужими войнами, мы ищем СВОЙ ПУТЬ в этом AI-хаосе.
Готовьтесь к порции цинизма, здравого смысла и планам по спасению мира (ну или хотя бы своего мозга).

🤔 ЧТО ПРОИСХОДИТ?


ПРОБЛЕМЫ НА ПОВЕРХНОСТИ:

"Дистилляция моделей" скоро накроется медным тазом. Ну то есть, выжимать знания из больших моделей станет рискованным бизнесом. Корпорации прикроют лавочку, это ж понятно!


Новым моделям без миллионов баксов будет сложно выжить. Как ковать блоху, когда у тебя нет кувалды? Ответ: хитрыми путями и старыми железяками!

Вся эта AI-движуха - сплошная НЕПРОДУМАННОСТЬ! Сначала тренируют на чужих данных (привет OpenAI), а потом обвиняют других в воровстве. Чистой воды цирк и рыночные игрища!


🎯 ЧТО ДЕЛАТЬ НАМ?


НАШ ПЛАН:

Делаем адаптивные модели на мизерном количестве данных. Как?! Синтезируем сами из открытых источников!
Скармливаем эту информацию АРХИТЕКТУРЕ ЛЛМ СОВЕРШЕННО НОВОГО ТИПА!
Наш RuKaLLaMA (да-да, именно так!) будет похож на МОЗГ! (не на безмозглый трансформер, которые штампуют корпорации!)


🧠 В ЧЕМ ЦИМЕС ?


НАША ФИШКА:

RuKaLLaMA будет работать как живой мозг!
Гибкость, адаптивность, понимание контекста.
Всё как у нас, надеемся!

Современные трансформеры, конечно, вдохновлены мозгом, но они — как карикатура на настоящего гения.
Мы будем ИСПОЛЬЗОВАТЬ ГИБКОСТЬ АКСОНОВ, а не статичные функции активации!

В мозгу аксоны меняются в зависимости от стимулов.
Так почему функции активации в нейронке должны быть статичны?
Даёшь динамику и гибкость!


🔬 НАУЧНЫЙ АНАЛИЗ (для тех, кто не в танке): ПРУФ

Раньше считали, что аксоны статичны. Но исследования показали: они могут МЕНЯТЬСЯ!

Статичные функции активации = плохая адаптация, а динамичные = гибкость и мощь!

Биологические нейроны: порог возбуждения как в функциях активации.
Но у нас всё не так тупо, всё сложнее и круче!


Нелинейность: как и в мозге, наша модель будет решать сложные задачи, используя гибкость и динамику.


💊 ВЫВОД:


МЫ НЕ СДАДИМСЯ:

Пока корпорации бьются за рынок, мы строим свой мир, свой AI, который будет умнее, гибче и ближе к мозгу.
Мы не будем зависеть от их денег и их правил. Мы будем ПОДКОВЫВАТЬ БЛОХУ и рвать шаблоны!
RuKaLLaMA - это наш ответ на тупость корпоративного AI. Это наше будущее!


P.S. Для скептиков: Да, мы знаем, что это звучит как безумная идея. Но когда гениальные идеи были простыми?

P.P.S. В следующей статье: мы поговорим о динамических функциях активации и о том, как именно мы будем подковывать нашу блоху!


#RuKaLLaMA #НовыйAI #ДинамикаАксонов #Гибкость #Мозг #Адаптация #ПодкуёмБлоху #СинтетическиеДанные #КорпорацииОтдыхают
11👏3👍2🔥1
🌋 ЧТО ТАМ С ДАТАСЕТАМИ? АНАЛИЗ ДАННЫХ И ПУТИ РАЗВИТИЯ AI 🌋

Привет, реалисты! Сегодня мы без лишних эмоций разберём, куда катится AI-индустрия, какие проблемы на горизонте и что мы можем с этим сделать. Забудьте про красивые лозунги, сейчас мы посмотрим на ситуацию трезвым взглядом.

🤔 ПРОБЛЕМЫ С ДАННЫМИ:


РЕАЛЬНОСТЬ ТАКОВА:


Зависимость от больших данных:

Современные модели (особенно трансформеры) требуют огромных объёмов данных для обучения. Это значит, что доступ к этим данным (и к вычислительным ресурсам для их обработки) контролируется крупными корпорациями.


Некачественные данные:

Большинство данных в интернете — это шум, мусор, и откровенная ложь. Обучение на таких данных приводит к моделям, которые могут выдавать бессмысленные или даже вредные результаты.


Угроза конфиденциальности:

Корпорации собирают наши личные данные, чтобы обучать свои модели. Это создаёт огромные риски для нашей конфиденциальности и безопасности.


Смещение:

Модели, обученные на однобоких данных, могут повторять и усиливать существующие предубеждения (расовые, гендерные и т.д.).


Ограничения на креативность:

Зависимость от больших данных мешает создавать новые, нешаблонные подходы. Все модели становятся похожими, как штампованные продукты.


🔬 АНАЛИЗ ТЕКУЩЕЙ СИТУАЦИИ:


ЧТО ПРОИСХОДИТ:

Трансформеры доминируют:

Архитектура трансформеров стала стандартом де-факто в обработке текста. Однако она требует огромных вычислительных мощностей и большого количества данных. Это как ездить на танке за хлебом.


Гонка за данными:

Корпорации ведут борьбу за доступ к данным, часто не гнушаясь сомнительными методами сбора и использования.


Несбалансированное развитие:

Основной упор делается на увеличение масштаба моделей, а не на поиск более эффективных алгоритмов. Это как наращивать мускулы, а не развивать мозг.


Манипуляции с данными:

Компании сами решают на каких данных тренировать модель и как формировать ее мнение.


⚡️ АЛЬТЕРНАТИВНЫЕ ПУТИ:


ЧТО МОЖНО ДЕЛАТЬ:

Меньше данных, больше эффективности: Разработка моделей, способных обучаться на меньших объёмах данных, но с большей эффективностью. Это как микропроцессор против суперкомпьютера.


Эффективное извлечение признаков:

Поиск способов извлекать суть из данных, а не просто запоминать их.


Новые архитектуры:

Разработка новых архитектур, не зависящих от трансформеров.


Синтез данных:

Создание искусственных данных, которые могут компенсировать недостаток реальных данных. Но надо понимать как.


Децентрализация:

Развитие децентрализованных моделей, которые не зависят от корпораций.


Прямое взаимодействие с данными:

Изучение возможности извлечения из данных неких "молекул" без потери признаков.


💊 ЦЕЛИ И ПЕРСПЕКТИВЫ:


Развитие открытых технологий: Создание открытых инструментов и моделей, которые будут доступны всем, а не только корпорациям.

Борьба за конфиденциальность: Защита наших личных данных от злоупотреблений.

Автономность: Развитие моделей без привязанности к корпоративным интересам и их предубеждениям.


🎯 ВЫВОД:


Мы видим, что текущая гонка за данными - это тупиковый путь. Нам нужно переосмыслить, как мы строим AI, и перейти от "больше" к "эффективнее". Мы будем идти своим путём!


P.S. Да, это сложнее, чем просто качать данные из интернета, но это единственный путь к созданию действительно умного и независимого AI.

P.P.S. В следующей статье: погрузимся в детали того, как мы будем решать эти задачи и как RuKaLLaMA поможет нам в этом!


#AIразвитие #RuKaLLaMA #МеньшеДанныхБольшеУма #Эффективность #ОткрытыйAI #Конфиденциальность #Децентрализация #НоваяАрхитектура
4😁1🤔1