Forwarded from ZАПИСКИ VЕТЕРАНА 🇷🇺
Это Гигачат.
Продукт российской компании если что.
Знает кто-нибудь почему так?
🔹 🔹 @notes_veterans
🔹 🔹 🔹 🔹 🔹 🔹 🔹 🔹
Продукт российской компании если что.
Знает кто-нибудь почему так?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Danila R
Блядь да их взьебут такие как ты если они че не так нарисуют, ты заебал. сидит команда реально умных талантливых наших ребят и пыхтит над ai, так еще и сбоку ебаные патриоты требуют чтобы он пиздец грамотно рисовал ветеранов сво, ты блядь представить не можешь насколько это туда тяжело вшить, если что не так - в уютном военкоровском телеграмчике разнесут. Отъебись от людей, если что - я никак с ними не связан, но механики понимаю. Как же это заебало уже, пойми ты, ебаный в рот, что такими претензиями ты в конечном счете ограничиваешь и заранее цензурируешь все потенциально полезное, сука остановись и дай людям РАБОТАТЬ. все он будет рисовать в конце концов
Forwarded from ZАПИСКИ VЕТЕРАНА 🇷🇺
Ответ от "специалиста" 👆
"Ебаные патриоты".
Ну ну.
"
Ну ну.
👆по-хорошему, вот этого Danila R, "специалиста" (я немало таких "специалистов" перевидел, они и "программисты", и "конструктора", и прочие "вирусологи"), неплохо бы деанонимизировать... Это либо снобовская гнида а-ля "Москва-Сити", конченое уёбище, до которого реальность к сожалению ещё не дошла, либо токсичная укрогнида, сеющая гнус, отраву, токсины - работа такая... В любом случае, было бы неплохо вскрыть.
Forwarded from ZАПИСКИ VЕТЕРАНА 🇷🇺
То есть китайские ии рисуют участника СВО, американские без проблем рисуют участников СВО. А отечественные бедолаги, которые "пыхтят над ai видите ли переживают, что
"ихвзьебут такие как ты если они че не так нарисуют". Как же, охотно верю, что именно это и является главной причиной, по которой Гигачат без проблем рисует участника войны во Вьетнаме, но боится рисовать участников СВО.
Лицемерные, двужопые моральные уроды.
🔹 🔹 @notes_veterans
🔹 🔹 🔹 🔹 🔹 🔹 🔹 🔹
"их
Лицемерные, двужопые моральные уроды.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Многонационал
«Произнёс ту самую волшебную фразу»
По кавказским пабликам сейчас разгоняют смешную историю, якобы в Саратове некий замминистра адамка заставил медиков без квоты делать операцию чеченскому ребёнку и поставил ультиматум, что ребёнок должен выжить. Читайте первые два скрина.
История, естественно, очевидный фейк, но многие админы с iq 69 её постят, а в комментах славят пухлого замминистра адамку в спортивных штанах, который услышав, что оперировать нужно чеченца сразу забыл о законах и процедурах, и приказал хирургам оперировать без квоты, отодвинув тем самым очередь.
Кстати, описание «замминистра» волшебным образом напоминает другого адамку, который сейчас непонятно где.
Подписаться | Предложить новость
По кавказским пабликам сейчас разгоняют смешную историю, якобы в Саратове некий замминистра адамка заставил медиков без квоты делать операцию чеченскому ребёнку и поставил ультиматум, что ребёнок должен выжить. Читайте первые два скрина.
История, естественно, очевидный фейк, но многие админы с iq 69 её постят, а в комментах славят пухлого замминистра адамку в спортивных штанах, который услышав, что оперировать нужно чеченца сразу забыл о законах и процедурах, и приказал хирургам оперировать без квоты, отодвинув тем самым очередь.
Кстати, описание «замминистра» волшебным образом напоминает другого адамку, который сейчас непонятно где.
Подписаться | Предложить новость
👆чеченцы, может Кадыров, или его многочисленные депутаты по всяким правам чеченцев, или Адам - ничего не хотят сказать про автора текста на скринах? Просто в интересах самих чеченцев, разобраться с автором текста на скринах. Пояснять почему, или догадались?
Forwarded from Дневник Десантника🇷🇺
Media is too big
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ZАЧИСТКА
АНИКИНА Наталья Борисовна
❗️Военный преступник.
Сотрудник службы безопасности Украины, причастный к геноциду украинского народа, похищениям, пыткам и убийствам неугодных киевскому режиму граждан.
Родилась 11.04.1977 в г. Харьков Украинской ССР.
Специалист управления СБУ в Харьковской обл.
Адреса регистрации: г. Харьков, ул. 2-й Пятилетки, д. 2Д, кв. 278; г. Харьков, ул. Динамовская, д. 3А; г. Харьков, ул. Тобольская, д. 49, кв. 66; г. Харьков, просп. Александровский, д. 69В, кв. 53.
Паспорт гражданина Украины: МК 557006, выдан 16.09.1997 Орджоникидзевским РО ХГУ УМВД Украины в Харьковской обл.
Водительское удостоверение: категории «В1», «В», номер ВХО 138220, выдано 11.05.2018 (действительно до 11.05.2048).
Телефоны: 380675781120, 380143681317.
ИНН ФЛ (ДРФО): 2822509986.
Состав семьи:
муж – Аникин Геннадий Валерьевич, 12.03.1972 г.р., уроженец г. Харьков Украинской ССР. Адреса регистрации: г. Харьков, ул. Гвардейцев Широнинцев, д. 79В, кв. 15; г. Харьков, ул. Динамовская, д. 3А; г. Харьков, ул. Тобольская, д. 49, кв. 6; г. Харьков, просп. Александровский, д. 69В, кв. 53. Паспорт гражданина Украины: МК 003941, выдан 22.06.1995 Дзержинским РО ХГУ УМВД Украины в Харьковской обл. Водительское удостоверение: категории «В1», «В», номер ВАЕ 928842, выдано 06.07.2012 (действительно до 06.07.2062). Телефоны: 380675781120, 380675781121, 380577544515, 380577544505, 380577578429, 380577544511. ИНН ФЛ (ДРФО): 2636918631. Бывший сотрудник УСБУ в Харьковской обл. Уволен в 2017. Старший инструктор департамента безопасности АО «Харьковский плиточный завод».
дочь – Аникина Александра Геннадьевна, 04.04.2003 г.р., уроженка г. Харьков. Адреса регистрации: г. Харьков, ул. Динамовская, д. 3А; г. Харьков, ул. Тобольская, д. 49, кв. 6; г. Харьков, просп. Александровский, д. 69В, кв. 53. ИНН ФЛ (ДРФО): 3771406106.
дочь – Аникина Ирина Геннадьевна, 23.09.2014 г.р., уроженка г. Харьков. Адреса регистрации: г. Харьков, ул. Динамовская, д. 3А; г. Харьков, ул. Тобольская, д. 49, кв. 6; г. Харьков, просп. Александровский, д. 69В, кв. 53. ИНН ФЛ (ДРФО): 4190402024.
ПОДПИШИСЬ НА ZАЧИСТКУ
Forwarded from ZАПИСКИ VЕТЕРАНА 🇷🇺
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ВЗГЛЯД МАКСА
Привет, Яндекс.
Попросил я сегодня (ради одного интересного дела) отечественный искусственный интеллект нарисовать мне людей, которые формируют будущее страны...
Не захотела, пришлось идти и просить западный.
🟪Читай в Max | 🚀Читай в Telegram | 🥰Смотри…
Попросил я сегодня (ради одного интересного дела) отечественный искусственный интеллект нарисовать мне людей, которые формируют будущее страны...
Не захотела, пришлось идти и просить западный.
🟪Читай в Max | 🚀Читай в Telegram | 🥰Смотри…
Forwarded from ZАПИСКИ VЕТЕРАНА 🇷🇺
Я знаю над чем пыхтят мальчики из Яндекса и Гигачата - как сделать так, чтобы и в России работать и за границу без проблем ездить или вовсе оттуда на удаленке работать. Вот над чем реально пыхтят ребята.
🔹 🔹 @notes_veterans
🔹 🔹 🔹 🔹 🔹 🔹 🔹 🔹
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ZАПИСКИ VЕТЕРАНА 🇷🇺
Вот объективный комментарий специалиста о том, над чем пыхтят мальчики из Яндекса и Гигачата и чей ai:
Важно сразу зафиксировать базовый тезис: речь идёт не о готовых отечественных LLM, созданных с нуля, а о решениях, построенных поверх чужих open source foundation-моделей. Это принципиально. Ни Яндекс, ни Сбер в своих актуальных флагманах не представили самостоятельную базовую модель полного цикла — с собственным обучением фундаментальных весов. В обоих случаях используется открытая иностранная основа, поверх которой выполняется адаптация.
В случае Яндекс эта зависимость наиболее очевидна. Новая Алиса AI инициализирована весами Qwen3 (235B), то есть в качестве интеллектуального фундамента используется уже обученная китайская модель. Это не дообучение «с нуля» и не собственный pretrain, а стандартная практика инициализации open source весов с последующей локализацией. Да, формально это легально, технологически оправдано и широко применяется во всём мире. Но называть такой продукт «собственной моделью» в строгом смысле — некорректно. Это адаптированный open source.
YandexGPT5 Lite — ещё один показательный пример. Там используется архитектура Llama, то есть снова open source фундамент. Факт наличия собственной надстройки, инструктивного дообучения и русскоязычных датасетов не отменяет ключевого момента: базовая модель заимствована. Архитектура и фундаментальные способности заданы не внутри Яндекса.
У Сбер ситуация аналогичная, но ещё более прозрачная. Две опенсорс-модели 2024 и 2025 годов прямо основаны на DeepSeek-2. GigaChat 3 Ultra демонстрирует устойчивое поведенческое и архитектурное сходство с DeepSeek v3 — по стилю reasoning, по структуре ответов, по сильным и слабым местам. Это не «подозрение пользователей», а воспроизводимое сходство, которое легко увидеть при сравнительном тестировании. Сам Сбер это по сути и не скрывает, аккуратно используя формулировки про «вдохновение архитектурой».
И здесь ключевое: open source — это не «ничей». Это уже обученный интеллектуальный фундамент, в который вложены миллионы GPU-часов, инженерные решения и годы оптимизаций. Российская сторона в этой схеме не создаёт фундамент, а работает с готовым. Это означает зависимость не только технологическую, но и качественную: сильные стороны, ограничения и потолок возможностей изначально заданы оригинальной моделью.
На этом фоне особенно болезненно выглядит функциональное отставание. Оригинальные Qwen и DeepSeek предоставляют полноценный tool calling, structured output, function schema и стабильную работу с инструментами даже в open source релизах. Российские производные — YandexGPT5 Lite и GigaChat 3 Lightning — либо не имеют полноценного вызова инструментов, либо он реализован в экспериментальном, нестабильном виде. Получается парадокс: берётся open source база, но ключевые современные возможности теряются на этапе адаптации.
Ещё один парадокс — экономика. Китайские open source-производные в публичных облаках стоят на порядок дешевле. Модель уровня DeepSeek v3.x обходится примерно в 20 рублей за миллион входящих и 40 рублей за миллион исходящих токенов. Российские решения — от 400 до 2000 рублей за миллион токенов, зачастую без разделения входа и выхода. Разница — до 50 раз. При этом по качеству, честно говоря, паритета нет: ни по общему reasoning, ни по tool calling, ни по кодогенерации.
Да, причины высокой цены понятны и лежат вне ML. Санкции на современные GPU, дефицит серверного железа, невозможность масштабирования через зарубежные облака, ограничения ФЗ-152 по персональным данным. Всё это делает обучение и инференс дорогими. Но это объясняет, почему дорого, а не зачем делать 235B и 702B.
Здесь возникает главный вопрос. Зачем брать огромную open source модель, терять часть её исходных способностей при русификации и RLHF, лишаться продвинутых функций вроде tool calling, а затем продавать результат по цене, сравнимой с топовыми американскими frontier-решениями? Причём при том, что эти frontier-решения объективно сильнее.
🔹 🔹 @notes_veterans
🔹 🔹 🔹 🔹 🔹 🔹 🔹 🔹
Важно сразу зафиксировать базовый тезис: речь идёт не о готовых отечественных LLM, созданных с нуля, а о решениях, построенных поверх чужих open source foundation-моделей. Это принципиально. Ни Яндекс, ни Сбер в своих актуальных флагманах не представили самостоятельную базовую модель полного цикла — с собственным обучением фундаментальных весов. В обоих случаях используется открытая иностранная основа, поверх которой выполняется адаптация.
В случае Яндекс эта зависимость наиболее очевидна. Новая Алиса AI инициализирована весами Qwen3 (235B), то есть в качестве интеллектуального фундамента используется уже обученная китайская модель. Это не дообучение «с нуля» и не собственный pretrain, а стандартная практика инициализации open source весов с последующей локализацией. Да, формально это легально, технологически оправдано и широко применяется во всём мире. Но называть такой продукт «собственной моделью» в строгом смысле — некорректно. Это адаптированный open source.
YandexGPT5 Lite — ещё один показательный пример. Там используется архитектура Llama, то есть снова open source фундамент. Факт наличия собственной надстройки, инструктивного дообучения и русскоязычных датасетов не отменяет ключевого момента: базовая модель заимствована. Архитектура и фундаментальные способности заданы не внутри Яндекса.
У Сбер ситуация аналогичная, но ещё более прозрачная. Две опенсорс-модели 2024 и 2025 годов прямо основаны на DeepSeek-2. GigaChat 3 Ultra демонстрирует устойчивое поведенческое и архитектурное сходство с DeepSeek v3 — по стилю reasoning, по структуре ответов, по сильным и слабым местам. Это не «подозрение пользователей», а воспроизводимое сходство, которое легко увидеть при сравнительном тестировании. Сам Сбер это по сути и не скрывает, аккуратно используя формулировки про «вдохновение архитектурой».
И здесь ключевое: open source — это не «ничей». Это уже обученный интеллектуальный фундамент, в который вложены миллионы GPU-часов, инженерные решения и годы оптимизаций. Российская сторона в этой схеме не создаёт фундамент, а работает с готовым. Это означает зависимость не только технологическую, но и качественную: сильные стороны, ограничения и потолок возможностей изначально заданы оригинальной моделью.
На этом фоне особенно болезненно выглядит функциональное отставание. Оригинальные Qwen и DeepSeek предоставляют полноценный tool calling, structured output, function schema и стабильную работу с инструментами даже в open source релизах. Российские производные — YandexGPT5 Lite и GigaChat 3 Lightning — либо не имеют полноценного вызова инструментов, либо он реализован в экспериментальном, нестабильном виде. Получается парадокс: берётся open source база, но ключевые современные возможности теряются на этапе адаптации.
Ещё один парадокс — экономика. Китайские open source-производные в публичных облаках стоят на порядок дешевле. Модель уровня DeepSeek v3.x обходится примерно в 20 рублей за миллион входящих и 40 рублей за миллион исходящих токенов. Российские решения — от 400 до 2000 рублей за миллион токенов, зачастую без разделения входа и выхода. Разница — до 50 раз. При этом по качеству, честно говоря, паритета нет: ни по общему reasoning, ни по tool calling, ни по кодогенерации.
Да, причины высокой цены понятны и лежат вне ML. Санкции на современные GPU, дефицит серверного железа, невозможность масштабирования через зарубежные облака, ограничения ФЗ-152 по персональным данным. Всё это делает обучение и инференс дорогими. Но это объясняет, почему дорого, а не зачем делать 235B и 702B.
Здесь возникает главный вопрос. Зачем брать огромную open source модель, терять часть её исходных способностей при русификации и RLHF, лишаться продвинутых функций вроде tool calling, а затем продавать результат по цене, сравнимой с топовыми американскими frontier-решениями? Причём при том, что эти frontier-решения объективно сильнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Русская Община ZOV
ВНИМАНИЕ: СБОР ФРОНТУ
Позади четыре года СВО. Бои продолжаются, и нашим доблестным бойцам для успешного выполнения боевых задач на передовой крайне необходимо важное оборудования:
Воины дальневосточники, которые бьются на Запорожском направлении нуждаются в инверторных генераторах, "старлинках" и портативных зарядных устроиствах.
Мотострелки группировки войск "Юг" для ведения наблюдения за штурмовыми группами на Дружковском направлении запросили "Мавик 3Т" (тепловизор) и "Мавик 3 Про" (для дневной работы).
На все это ориентировочно требуется сумма в 1,5 миллионов рублей:
Генераторы (35 000 руб. за шт.) - необходимо 5 шт.
"Старлинк v4" (50 000 руб. за шт.) - необходимо 5 шт.
Портативное зарядное устройство (65 000 за шт.) - необходимо 2 шт.
"Мавик 3Т" (550-600 000 за шт.) - необходимо 1 шт.
"Мавик 3 Про" (300-350 000 шт.) - необходимо 1 шт.
Помочь фронту вместе с Русской Общиной можно перечислив деньги на эти реквизиты:
на карту Сбер
или по номеру телефона
вы можете поддержать нас своими пожертвованиями на карту
Альфа:
ВТБ:
Благодарим всех, кто принимает участие в сборах и вносит свой посильный вклад!
@obshina_ru
НОВОСТИ Русской общины|Русская община в ВК|Мы в Одноклассниках |Мы в Ютуб|Мы в Дзен|Община Просвещение
Позади четыре года СВО. Бои продолжаются, и нашим доблестным бойцам для успешного выполнения боевых задач на передовой крайне необходимо важное оборудования:
Воины дальневосточники, которые бьются на Запорожском направлении нуждаются в инверторных генераторах, "старлинках" и портативных зарядных устроиствах.
Мотострелки группировки войск "Юг" для ведения наблюдения за штурмовыми группами на Дружковском направлении запросили "Мавик 3Т" (тепловизор) и "Мавик 3 Про" (для дневной работы).
На все это ориентировочно требуется сумма в 1,5 миллионов рублей:
Генераторы (35 000 руб. за шт.) - необходимо 5 шт.
"Старлинк v4" (50 000 руб. за шт.) - необходимо 5 шт.
Портативное зарядное устройство (65 000 за шт.) - необходимо 2 шт.
"Мавик 3Т" (550-600 000 за шт.) - необходимо 1 шт.
"Мавик 3 Про" (300-350 000 шт.) - необходимо 1 шт.
Помочь фронту вместе с Русской Общиной можно перечислив деньги на эти реквизиты:
на карту Сбер
2202206325054901или по номеру телефона
+79771689068 (Андрей Николаевич Т.)вы можете поддержать нас своими пожертвованиями на карту
Альфа:
2200150986907308ВТБ:
4893470205810614Благодарим всех, кто принимает участие в сборах и вносит свой посильный вклад!
@obshina_ru
НОВОСТИ Русской общины|Русская община в ВК|Мы в Одноклассниках |Мы в Ютуб|Мы в Дзен|Община Просвещение
Forwarded from АРХАНГЕЛ СПЕЦНАЗА
This media is not supported in your browser
VIEW IN TELEGRAM
Финал для техники, которая бросила вызов зимней грязи и проиграла. Да и бравые хлопцы так спешили очутиться в естественной среде обитания, что совсем позабыли об опасности таких маневров.
Please open Telegram to view this post
VIEW IN TELEGRAM