Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
912 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Мир если бы stability.ai не делали отдельный репозиторий под каждую модель
😁45😢5
Forwarded from ЭйАйЛера
This media is not supported in your browser
VIEW IN TELEGRAM
BlenderXEbsynthXStableDiffusion

Художник Kwang тестирует возможности KenTools с треккингом головы. Выглядит впечатляюще, генерация сидит как вторая кожа.

Интересно, что автор не использует для дефликера DaVinci или Topaz, такой результат дает только трекинг Blender и Stable сверху.

На тест трекинга открыта бета, можете подать заявку на сайте

Спасибо за ссылку StLaurentJR
11🔥4👍3
Forwarded from Dev Meme / devmeme
😁40
Forwarded from Fractal Tree
👍193
Sure, grammarly, if you say so.
20😁13
Cheems is dead, you can be horny now :(
😢51
Ah the local Swedens
😁39😢8🔥3
🎉29🔥5👍4
Facehuggers Huggingface выкатили IDEFICS, опенсорсный аналог Flamingo.
Всем мультимодалиться полчаса!

(дальше текст переводила ЧатГПТ)

Первая в мире опенсорсная мультимодальная сота.

Что такое IDEFICS?
Воспроизведение Flamingo 🦩 от DeepMind
Мультимодальность
Размеры модели 80B + 9B
Построена исключительно на общедоступных данных и моделях

Зочем? 👀
Генерит текст на основе картинок и текстовых промтов 💬
Отвечает на вопросы о картинках 🤔
Описывает визуальное содержимое 🔍
Создаёт истории на основе нескольких изображений 🖼
Действует как чистая языковая модель без визуальных промтов
Сравнима с оригинальной моделью по качеству 🔥

https://huggingface.co/spaces/HuggingFaceM4/idefics_playground
https://huggingface.co/blog/idefics
🔥25
🔥65😁243🤩3
Forwarded from Двач
This media is not supported in your browser
VIEW IN TELEGRAM
Зубная щётка записала нейрокавер на Gangsta's Paradise. Получился шедевр.
😁50🎉8🔥6😱3
Эксель ячейки раньше: =SUM(
Эксель ячейки сейчас: import pandas as pd
😁501👍1
😁42😢113
This media is not supported in your browser
VIEW IN TELEGRAM
Новое подтверждение теории, что все аниме-персонажи – это кошки, а не люди.

Какие ещё нужны доказательства?
r/#SipsTea
46😁8👍2
Выкатили CodeLLAMA

7/13/34b, code continuation/infilling, instruct/chat models.

Заявляют SOTA среди опенсорс-моделей. Штош, будем посмотреть :D

Github
Paper
Blog
11🔥1
Forwarded from тоже моушн
вокруг ComfyUI - ажиотаж

для пользователей WarpFusion Дерп Лернинг запилил эксплейнер на комфи с наглядным объяснением процессов аккуратной стилизации видео. и похоже что нас ждет Comfy версия варпа!

если по началу комфи был интересен только кучке нердов то в последнее время он развивается активными шагами, и вот почему:

высокая гибкость инструмента, возможность дописывать свои модули (ноды), лихо соединять все это в едином интерфейсе, мега простой апи. это уже достойная альтернатива автоматику

вот например урок о том как делать бесконечную зум анимацию в комфи да еще и менять промпты прямо в процессе рендера

а DotSimulate на днях выложил на патреоне свой ComfyUI Touchdesigner API Tool Setup

своим изгибающим реальность сетапом я все еще хочу и планирую поделиться. останавливает только то что в эпоху однокнопочных решений предлагать пользователю танцевать с бубнами без четкой инструкции - ну такое себе

ComfyUI
Warp and Consistency explanation
zoom tutorial
ComfyUI TD API by DotSimulate

@тоже_моушн
👍93
Forwarded from Время Валеры
Наткнулся на сообщение СЕО конторы где я работал, из которого узнал, что компания проинвестировала в молодых и перспективных стартаперов. Команда на фото
😁47
Forwarded from Denis Sexy IT 🤖
На неделе, от Meta, вышла новая серия «больших языковых моделей» — которая позволяет генерировать код по текстовому запросу, ну, как многие это делали в ChatGPT.


Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).

Я такое очень люблю, локальные языковые модели на базе llama2 это:

— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;

— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;

— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.

— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.

Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.

Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.

Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣

Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.

Модель с которой я игрался (34B)
Скрипт которым запускаю инференс (Mac)

TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты

@Denis
17👍7🔥7
😁35👍3🤩2