Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Языковая 3Д-генерация.

У нас есть некоторое количество сервисов для 3Д-генерации, о которых я неоднократно писал.
Проблема там в основном в топологии (каша) и в качестве текстур. Плюс в ограниченности сцены - как правило это один объект.

Уже неделю как интернет бомбит от связки Блендора и Клода 3.7 через MCP, о которой я тоже писал.
Ну и действительно, поглядите на пример.

Все, что потребовалось здесь, это сгенерировать картинку, а потом сказать Клюду:
"Recognize any elements of this scene individually. Describe them precisely, then build them in a scene."

"Распознай все элементы этой сцены по отдельности. Опишите их точно, а затем сделай из них сцену".

"Традиционные" 3Д-генераторы тоже пытаются распознать картинку, потом сгенерить ее с разных ракурсов, а потом восстановить 3Д из нескольких картинок. А Клод пытается "собрать\отрендерить сцену" с помощью, грубо говоря, скриптов для Блендора - запуская разные команды, о которых он в курсе. Процедурное моделирование на стрероидах LLM.

Понятно, что пока довольно примитивные сцены, понятно, что замоделить голову неведомого ему персонажа будет сложновато, но дайте время.

Интересно подумать, над специальным файнтюном как для распознавания картинок, так и для (и особенно) для Блендора. Файнтьюн, который обучен на последовательностях действий и сценах.

Просто сцены, которые генерит Клод, отлично редактируются, анимируются - это нормальная геометрия, а не обмылки из 3Д-генераторов.

Интересно, посмотреть, что будет дальше.

@cgevent
👍47🤔7👎5
Смешнее с каждым разом, на этот раз тест от Николоса Карлини, он работал над кучей вещей связанных с Ai safety до того как это стало Ai safety

https://nicholas.carlini.com/writing/2025/thoughts-on-future-ai.html
44👍18
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
*швыряю деньги в монитор, в надежде получить такого же*
73🔥25❤‍🔥5🍓5😍3
Стартап по рисованию экспоненты, прочитал все статьи Metr - стабильное ощущение что челы ищут задачи где можно показать прирост/само осознанность. Помнится одно время искали у gpt4 sparks of agi, прошло два года, ищут у 4.5, а она в среднем не умнее.
😁66👍71
Что должна уметь модель за 150/600 I/o?

Пишите промпты погоняю с утра самые интересные
🍓3321🍌6👍21
Forwarded from Labrats
А эта ваша наука точно не магия?

(Часть 4)
😁50👍9❤‍🔥1🔥1🥱1
крайне любопытные эвалы от Саши Кукушкина, например оказывается что ребята из ruadapt победили почти всех в номинации "как затюнить qwen 32b и не просадить", а yandex gpt мы в вихрях затюнили хуже чем Илья(что тоже любопытно)

Полистайте репозиторий, крайне любопытно
👾31👍12🌭3🥱2
Love. Death. Transformers.
Что должна уметь модель за 150/600 I/o? Пишите промпты погоняю с утра самые интересные
@globminsearch
>ну помимо охлажденного напитка на выбор и оральных ласок под столом во время ожидания, должна как минимум воспроизводить сама себя, искать китайский кластер, заработать на претрейн и отправить по почте жёсткий диск с чекпоинтами
👍43275🌭2🥴1🍓1🗿1
🔥22💯4👍1
Привет, слышал вы там нейросетями занимаетесь, тема перспективная есть, можете сделать чтобы вот прям как человек общалась?
2🔥165😁918🤷‍♂5🌭3👍1👎1
Дорогие читатели, а во сколько лет вы перестали верить в то, что если строить российские LLM по рецепту "мы сделаем то же самое, только своё", то это позволит нашей науке обогнать запад?

Пишите ваши ответы в комментарии
😁16831💯8🤮4👍3👎32🥴2😢1🎅1
Forwarded from КПД
Scale-wise Distillation of Diffusion Models
[Статья] [Демка] [Код soon]

Введение

Диффузионные модели на протяжении последних несколько лет удерживают пальму первенства среди семейств генеративных моделей во многих приложениях. Однако их фундаментальным ограничением является многошаговое сэмплирование, из-за чего генерация занимает много времени.

Научное сообщество предложило вагон и маленькую тележку различных процедур дистилляции многошаговых моделей в малошаговые. Но при приближении количества шагов к 1-му качество неизбежно просаживается даже для самых продвинутых подходов.

Отсюда мысль 🤔 - а что если ускорить генерацию за счет удешевления шагов сэмплирования?

Мы с коллегами из Yandex Research предложили метод дистилляции в несколько-шаговую генерацию, где разрешение изображения увеличивается постепенно, на каждом шаге генерации (SwD). За счет этого удается достичь более чем 2х кратного ускорения по сравнению с эквивалентной дистилляцией в фиксированном разрешении.
🔥49🍓9👍75❤‍🔥4
Чёт сегодня пять человек пришло в личку с рассказами про сокращения.

Cvшники,nlpшники и прочие ищут работу, пишите в @transformerslovedeatch если у вас есть вакансии в Европе/с удаленкой по миру/в России


В х5 ищут cv-nlp-audio ребята
@loalkota

Рсхб ищут всех-всех-всех nlpшников, а так же cvшников genai и тд @sharthZ23

https://github.com/bobuk/hiring-here/blob/main/Senior_Data_Engineer.md не в россии


Revolute
NLP DS
Core DS
локаций много по европе + теоретически можно лондон, uae, писать за рефером @andrey_kiselev

8 позиций в JB в европе!
https://www.jetbrains.com/careers/jobs/#technologies=Machine+Learning

Ребята из samaya.ai строят агентов в Лондоне!

https://samaya.ai/careers/

Ищут от CТО до Senior ML строить SaaS AI Enterprise Search and Productivity Platform

https://careers.gendalf.ai/akorolev/Gendalf-Careers-143f3071fbeb80ac9a5bd057d2b70b32
😢59😐12❤‍🔥11🤡5👍4😨2
There May Not be Aha Moment in R1-Zero-like Training — A Pilot Study
TLDR:

1) qwen_ы из коробки умеют соблюдать чат темплей и генерировать aha moment, а llama нет
2) без r1 systemprompt получается лучше
3) у авторов скор на бенче не корелировал с длинной ответа

Что это значит для нас? То что мы опять не понимаем RL что то докидывает кроме метрик на математике или нет.

blog
👍378😢3🤔1🤮1