Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
В Школе анализа данных, где готовят специалистов по ИИ, началось обучение по применению ИИ в естественно-научных исследованиях. На программу подали заявки ученые из 37 регионов - больше всего запросов получили от экспертов в областях физики, медицины и химии. В итоге зачислили 50 молодых исследователей: от магистрантов до кандидатов наук из Москвы, Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга.
Участники изучают основы ИИ и сразу применяют инструменты в своих задачах. С каждой командой работает эксперт ШАДа: помогает выбрать методы и спланировать эксперимент. Если проекту нужны тяжелые вычисления, подключаются мощности Yandex Cloud.
Команда из Institute of Science Tokyo анонсировала фреймворк PianoKPM Net, способный с высокой точностью определять активность мышц рук без использования нательных датчиков. Обычно для этого требуется инвазивная и дорогая электромиография, но новая архитектура реконструирует паттерны мышечных сокращений, анализируя только видеозапись.
В основе системы - уникальный датасет, собранный на базе 12 часов игры профессиональных пианистов, где визуальные данные синхронизированы с реальными сигналами мышц. Технология превращает обычную камеру в диагностический инструмент, что важно для реабилитационной медицины, спортивной аналитики и создания продвинутых интерфейсов «человек-компьютер». Авторы планируют выложить датасет и модель в открытый доступ.
techxplore.com
Project Prometheus поглотил разработчика агентного ИИ General Agents. Сделка прошла в закрытом режиме еще летом и сопровождалась переходом команды инженеров из DeepMind и Tesla в структуру Prometheus. Цель Prometheus: создание ИИ-систем для поддержки сложных производств автомобилестроения и космической отрасли.
Главный актив General Agents - технология Ace для автономного управления интерфейсами и приложениями. Хотя изначально Ace создавался для автоматизации рутинны на ПК, в рамках Prometheus эти наработки, судя по всему, будут масштабированы для индустриальных сценариев.
wired.com
Глава направления Sora в OpenAI Билл Пиблз сообщил, что бесплатные аккаунты теперь ограничены всего 6 видеогенерациями в сутки, так как текущие графические процессоры буквально плавятся от запросов. Это ограничение не выглядит временным: компания прямо предлагает докупать генерации по мере необходимости, хотя условия для подписчиков ChatGPT Plus и Pro пока остались прежними.
Google приняла аналогичные меры, урезав бесплатный доступ к инструменту Nano Banana Pro до 2 изображений в день. Техгигант предупредил, что лимиты могут меняться динамически и без уведомлений. Кроме того, под ограничения попал и доступ бесплатных пользователей к модели Gemini 3 Pro.
theverge.com
ИИ-поисковик получил функцию "persistent memory", которая позволяет запоминать предпочтения, интересы и детали предыдущих диалогов. Теперь система автоматически создает "постоянный контекст" пользователя, а ответы становятся персонализированными и требуют меньше уточняющих запросов.
Perplexity извлекает факты из хранилища памяти и напрямую использует их при формировании ответа. Этот контекстный слой работает поверх любой выбранной модели без потери накопленных знаний о пользователе. Функция полностью управляема: сбор данных можно отключить в настройках, а в режиме инкогнито история не сохраняется.
perplexity.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Новая работа IBM и Колумбийского университета показывает, как AI-агент может находить связи между предсказательными рынками и превращать их в сигналы для трейдинга.
В тестах найденные агентом связи дали простую стратегию с ~20% средней доходностью на недельных сделках.
Предсказательные рынки — это площадки, где люди торгуют “да/нет” ставками на будущие события, а цены отражают коллективные ожидания.
Проблема в том, что там часто есть куча почти одинаковых вопросов → деньги и внимание дробятся, а естественные связи между событиями скрываются.
Авторы построили AI-pipeline, который:
• читает текст рынков,
• группирует похожие вопросы в кластеры,
• ищет пары взаимосвязанных рынков.
Далее агент прогнозирует: должны ли два связанных рынка обычно решаться одинаково или наоборот — противоположно.
Проверка на исторических данных Polymarket показала, что 60–70% связей высокой уверенности оказались правильными.
Правило “торгуй вторым рынком после того, как первый закрылся” приносило прибыль большинство месяцев — то есть смысловые связи действительно несут экономическую информацию.
arxiv.org/abs/2512.02436
В тестах найденные агентом связи дали простую стратегию с ~20% средней доходностью на недельных сделках.
Предсказательные рынки — это площадки, где люди торгуют “да/нет” ставками на будущие события, а цены отражают коллективные ожидания.
Проблема в том, что там часто есть куча почти одинаковых вопросов → деньги и внимание дробятся, а естественные связи между событиями скрываются.
Авторы построили AI-pipeline, который:
• читает текст рынков,
• группирует похожие вопросы в кластеры,
• ищет пары взаимосвязанных рынков.
Далее агент прогнозирует: должны ли два связанных рынка обычно решаться одинаково или наоборот — противоположно.
Проверка на исторических данных Polymarket показала, что 60–70% связей высокой уверенности оказались правильными.
Правило “торгуй вторым рынком после того, как первый закрылся” приносило прибыль большинство месяцев — то есть смысловые связи действительно несут экономическую информацию.
arxiv.org/abs/2512.02436
📘 Новая фундаментальная работа (65 страниц) от Stanford, Princeton, Harvard, University of Washington и других топ-университетов: впервые предлагается полная таксономия того, как современные агентные AI-системы адаптируются.
Главная идея:
Почти все сложные AI-агенты можно описать через всего 4 базовые типа адаптации - два связаны с обновлением самого агента, два других - с обновлением инструментов, которыми агент пользуется.
Что такое агентный AI:
Это большие модели, которые могут:
- вызывать инструменты,
- использовать память,
- выполнять задачи в несколько шагов.
Что такое адаптация:
Любое изменение агента или его инструментов на основе обратной связи, от проверки кода до человеческих оценок.
4 вида адаптации:
A1 - Agent Adaptation from Tool Execution
Агент обновляется на основе того, что произошло при вызове инструментов: код запустился или упал, поиск что-то нашёл или нет.
A2 — Agent Adaptation from Output Evaluation
Агент обновляется по оценкам качества своих итоговых действий: человеческим фидбеком, автопроверками ответов, качеством планов.
T1 - Tool Adaptation Independent of Agent
Инструменты обучаются отдельно, а агент остаётся “замороженным”. Например, заранее тренированный retriever или кодовый поисковик.
T2 - Tool Adaptation from Agent Signals
Агент остаётся фиксированным, но инструменты подстраиваются под его поведение — какие документы действительно помогли, какие подсказки улучшили выполнение задачи.
Почему это важно:
- Работа впервые системно упорядочивает методики адаптации агентных систем.
- Помогает понять компромиссы: стоимость обучения, гибкость, переносимость, модульные обновления.
- Показывает историю развития методов A1, A2 и T2, как они усложнялись и какие сигналы начали использовать.
Взгляд сводится к двум осям:
- можно менять агента,
- можно менять инструменты,
- а данные и фидбек служат топливом для обеих стратегий.
Эта таксономия помогает увидеть связи между десятками современных работ и понять, куда движутся агентные архитектуры нового поколения.
https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
Главная идея:
Почти все сложные AI-агенты можно описать через всего 4 базовые типа адаптации - два связаны с обновлением самого агента, два других - с обновлением инструментов, которыми агент пользуется.
Что такое агентный AI:
Это большие модели, которые могут:
- вызывать инструменты,
- использовать память,
- выполнять задачи в несколько шагов.
Что такое адаптация:
Любое изменение агента или его инструментов на основе обратной связи, от проверки кода до человеческих оценок.
4 вида адаптации:
A1 - Agent Adaptation from Tool Execution
Агент обновляется на основе того, что произошло при вызове инструментов: код запустился или упал, поиск что-то нашёл или нет.
A2 — Agent Adaptation from Output Evaluation
Агент обновляется по оценкам качества своих итоговых действий: человеческим фидбеком, автопроверками ответов, качеством планов.
T1 - Tool Adaptation Independent of Agent
Инструменты обучаются отдельно, а агент остаётся “замороженным”. Например, заранее тренированный retriever или кодовый поисковик.
T2 - Tool Adaptation from Agent Signals
Агент остаётся фиксированным, но инструменты подстраиваются под его поведение — какие документы действительно помогли, какие подсказки улучшили выполнение задачи.
Почему это важно:
- Работа впервые системно упорядочивает методики адаптации агентных систем.
- Помогает понять компромиссы: стоимость обучения, гибкость, переносимость, модульные обновления.
- Показывает историю развития методов A1, A2 и T2, как они усложнялись и какие сигналы начали использовать.
Взгляд сводится к двум осям:
- можно менять агента,
- можно менять инструменты,
- а данные и фидбек служат топливом для обеих стратегий.
Эта таксономия помогает увидеть связи между десятками современных работ и понять, куда движутся агентные архитектуры нового поколения.
https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
❤2
Skills Training - новый способ обучать и дообучать модели через AI-агентов.
Вместо ручной настройки training-пайплайнов агент получает инструкции (skills) и сам запускает обучение модели.
Что это даёт:
• Skills - это инструкции и скрипты, которые агент использует для обучения моделей
• Агент может запускать training на GPU, следить за прогрессом и публиковать модель в Hugging Face Hub
• Автоматизируются выбор железа, конфигурация обучения, проверка датасетов и валидация
• Работает с разными агентами: Claude Code, Codex, Gemini CLI и другими
Зачем это нужно:
обучение и fine-tuning LLM становятся доступными без глубокого погружения в инфраструктуру и код.
Skills Training - шаг к миру, где обучение моделей происходит через диалог, а не через сложные пайплайны.
https://huggingface.co/blog/hf-skills-training
Вместо ручной настройки training-пайплайнов агент получает инструкции (skills) и сам запускает обучение модели.
Что это даёт:
• Skills - это инструкции и скрипты, которые агент использует для обучения моделей
• Агент может запускать training на GPU, следить за прогрессом и публиковать модель в Hugging Face Hub
• Автоматизируются выбор железа, конфигурация обучения, проверка датасетов и валидация
• Работает с разными агентами: Claude Code, Codex, Gemini CLI и другими
Зачем это нужно:
обучение и fine-tuning LLM становятся доступными без глубокого погружения в инфраструктуру и код.
Skills Training - шаг к миру, где обучение моделей происходит через диалог, а не через сложные пайплайны.
https://huggingface.co/blog/hf-skills-training
❤1
YouTube Gaming запустила закрытое бета-тестирование сервиса Playables Builder, которое позволяет авторам создавать мини-игры на основе промптов. Система работает на базе Gemini 3: чтобы превратить идею в рабочий интерактивный проект, достаточно загрузить короткое текстовое описание, видеофрагмент или изображение.
Новый инструмент нацелен на удержание аудитории через геймификацию контента. На данный момент доступ конструктору ограничен (требуется активный канал и одобрение заявки) и допускаются только пользователи из США, Канады, Великобритании и Австралии.
Youtube Gaming в сети X
Please open Telegram to view this post
VIEW IN TELEGRAM
📄 Конвертация сессий Claude Code в HTML 📄
Этот инструмент позволяет преобразовывать файлы сессий Claude Code (JSON/JSONL) в удобные для чтения HTML-страницы с пагинацией. Идеально подходит для архивирования и просмотра сессий в мобильном формате.
🚀 Основные моменты:
- Преобразует сессии в многостраничные HTML-транскрипты.
- Поддерживает локальные и веб-сессии через API Claude.
- Возможность публикации на GitHub Gist для удобного доступа.
- Автоматическое создание папок для хранения выходных данных.
📌 GitHub: https://github.com/simonw/claude-code-trannoscripts
#python
Этот инструмент позволяет преобразовывать файлы сессий Claude Code (JSON/JSONL) в удобные для чтения HTML-страницы с пагинацией. Идеально подходит для архивирования и просмотра сессий в мобильном формате.
🚀 Основные моменты:
- Преобразует сессии в многостраничные HTML-транскрипты.
- Поддерживает локальные и веб-сессии через API Claude.
- Возможность публикации на GitHub Gist для удобного доступа.
- Автоматическое создание папок для хранения выходных данных.
📌 GitHub: https://github.com/simonw/claude-code-trannoscripts
#python
GitHub
GitHub - simonw/claude-code-trannoscripts: Tools for publishing trannoscripts for Claude Code sessions
Tools for publishing trannoscripts for Claude Code sessions - simonw/claude-code-trannoscripts
This media is not supported in your browser
VIEW IN TELEGRAM
🐳 Как запустить DeepSeek у себя на ПК через Python
Главная ошибка новичков - сразу ставить огромные модели.
Начни с компактной версии, проверь, что всё запускается, и только потом увеличивай размер.
Алгоритм простой:
1) ставим зависимости
2) качаем лёгкую модель DeepSeek
3) проверяем, что она отвечает
4) при необходимости включаем GPU или берём квантизованную версию
Так ты избежишь вылетов, перегрузки памяти и быстрее получишь рабочий результат.
Главная ошибка новичков - сразу ставить огромные модели.
Начни с компактной версии, проверь, что всё запускается, и только потом увеличивай размер.
Алгоритм простой:
1) ставим зависимости
2) качаем лёгкую модель DeepSeek
3) проверяем, что она отвечает
4) при необходимости включаем GPU или берём квантизованную версию
Так ты избежишь вылетов, перегрузки памяти и быстрее получишь рабочий результат.
установить зависимости
pip install transformers accelerate torch sentencepiece
# пример запуска DeepSeek из Python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "deepseek-ai/deepseek-coder-6.7b-base"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto" # если есть GPU — модель сама её использует
)
prompt = "Напиши на Python функцию, которая проверяет, простое ли число."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=160,
temperature=0.4
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Как запустить Qwen у себя на ПК с Python
Совет: если хочешь развернуть Qwen локально без облака, проще всего поставить её через Transformers - модель скачивается один раз и дальше работает офлайн.
Подходит даже для слабых ПК, если брать маленькие версии (например, Qwen-2.5-1.5B-Instruct).
https://www.youtube.com/shorts/xq69dAtRigU
Совет: если хочешь развернуть Qwen локально без облака, проще всего поставить её через Transformers - модель скачивается один раз и дальше работает офлайн.
Подходит даже для слабых ПК, если брать маленькие версии (например, Qwen-2.5-1.5B-Instruct).
# Установка:
# pip install transformers accelerate torch
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
MODEL_NAME = "Qwen/Qwen2.5-1.5B-Instruct"
# Модель и токенайзер загрузятся один раз — потом работают офлайн
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
torch_dtype=torch.float16,
device_map="auto" # автоматически использует GPU, если есть
)
prompt = "Объясни простыми словами, чем контейнер отличается от виртуальной машины."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=200,
do_sample=True,
temperature=0.7
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
https://www.youtube.com/shorts/xq69dAtRigU
👍2❤1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
ChatGPT Health — отдельный раздел чат-бота исключительно для запросов, связанных со здоровьем, с возможностью интеграции с сервисами трекинга: Apple Health, MyFitnessPal, а также с личными медицинскими записями для анализа результатов анализов и истории болезни.
Вопросы приватности и безопасности данных решены с помощью многоуровневого шифрования и отдельной инфраструктуры; данные из ChatGPT Health по умолчанию не используются для обучения основных моделей ChatGPT.
Доступ к бета-версии открыт через лист ожидания для пользователей за пределами ЕС, Швейцарии и Великобритании; интеграция с медицинскими картами пока доступна только в США.
openai.com
Министерство торговли КНР начало расследование приобретения стартапа Manus. Власти подозревают, что релокация сотрудников и технологий компании из Китая в Сингапур с последующей продажей американскому техно-гиганту могла быть попыткой обхода требований по лицензированию экспорта технологий.
Команда и основатели Manus покинули Китай летом 2025 года, чтобы дистанцироваться от геополитических рисков. Этот маневр позволил привлечь $75 млн. от американского фонда Benchmark, что ранее уже вызывало вопросы у Минфина США.
Компания Цукерберга утверждает, что на момент закрытия сделки в Manus не осталось китайского капитала, однако Пекин намерен выяснить, легально ли технологии покинули страну до того, как стартап сменил юрисдикцию.
ft.com
Компании объявили о расширении партнерства ради создания единой среды Industrial AI Operating System. Она построена на концепции централизованного интеллекта, который позволит непрерывно анализировать цифровые двойники и валидировать любые производственные изменения в виртуальной среде до их реализации в поле. Эталоном такого производства станет завод Siemens в немецком Эрлангене.
Для инженеров альянс готовит новые инструменты. В середине 2026 года выйдет Digital Twin Composer на движке NVIDIA Omniverse для построения промышленных мета-вселенных, а интеграция библиотек CUDA-X в программный стек Siemens обещает кратный прирост производительности в проектировании полупроводников и тяжелых инженерных симуляциях.
press.siemens.com
Artificial Analysis представила 4-ю версию рейтинга ИИ-моделей, зафиксировав жесткую конкуренцию между топовыми игроками. Формальное лидерство досталось GPT-5.2 (Х-High), однако Claude Opus 4.5 и Gemini 3 Pro отстают от нее с минимальным разрывом, фактически образуя тройку равных лидеров.
В новой итерации индекса заметно просели абсолютные показатели: лучшие модели теперь набирают в районе 50 баллов против 73 в прошлой версии. Это связано с ужесточением методологии и ротацией тестовых наборов.
На смену AIME 2025 и MMLU-Pro пришли более суровые тесты: AA-Omniscience для проверки эрудиции и склонности к галлюцинациям, GDPval-AA для прикладных задач в 44 сферах и CritPt, оценивающий способности в физических исследованиях. Итоговый балл формируется из 4-х категорий: агенты, программирование, научное мышление и общие задачи.
Artificial Analysis в сети Х
Команда из Университета Ватерлоо решила одну из фундаментальных проблем квантовых вычислений — невозможность прямого копирования информации. Суть метода, описанного в Physical Review Letters, заключается в шифровании квантовой информации в процессе ее копирования.
Как поясняют авторы, запрет на клонирование можно обойти, если создавать неограниченное количество зашифрованных дубликатов кубитов. Механизм защиты работает через одноразовые ключи: как только пользователь расшифровывает одну из копий, ключ автоматически аннулируется.
Это открытие фактически легализует создание «квантового облака». Технология позволяет хранить квантовые данных на распределенных серверах и создать аналог квантового Dropbox или Google Drive.
uwaterloo.ca
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1👍1
MIT: большие датасеты не всегда нужны - можно вычислить “минимум данных”, который гарантирует лучший ответ
Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.
Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.
То есть система отвечает на вопрос не “примерно”, а строго:
👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.
В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.
А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее
Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.
Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid
Каждое измерение может быть: дорогим, медленным, опасным или редким.
И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.
Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.
Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.
То есть система отвечает на вопрос не “примерно”, а строго:
👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.
В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.
А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее
Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.
Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid
Каждое измерение может быть: дорогим, медленным, опасным или редким.
И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.
Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
❤1👍1
Отсылка к знаменитой исторической истории про Александра Македонского и его легендарного коня Буцефала.
Коротко сюжет:
К торговцу привели огромного дикого коня и предложили царю Филиппу II купить его за 13 талантов (по тем временам — почти безумные деньги).
Проблема — конь был настолько неуправляемый, что никто не мог даже приблизиться, а любой всадник мгновенно летел в пыль.
Все дрессировщики сдались. Царь уже собирался отказаться.
И тут выходит юный Александр (ещё подросток) и заявляет:
> “Вы теряете отличного коня из-за собственной глупости.”
Его высмеивают, отец отчитывает, но Александр настаивает и даже заключает пари:
если не справится — оплатит коня сам.
А дальше гениальная деталь.
Александр не стал давить силой — он заметил то, чего не видел никто:
Буцефал панически боялся собственной тени.
Он спокойно развернул коня мордой к солнцу — тень ушла назад, исчез главный источник страха.
Конь моментально успокоился.
Александр погладил его, сел верхом — и спокойно уехал.
Толпа в шоке. Все аплодируют.
С тех пор появилась почти символическая мысль:
“Только Александр мог укротить Буцефала.”
То есть только человек с исключительным умом и смелостью может решить то, что другим кажется невозможным.
И вот почему пасхалка DeepSeek выглядит как тонкий намёк:
> “Не каждому дано понять и сделать то что неужно. Только гении способны на это.”
Очень красивая, почти дерзкая отсылка.
mp.weixin.qq.com/s/L7YawzhHCACBQsiEb7w-Tw
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
NVIDIA и Basecamp Research представили ИИ-технологию редактирования ДНК.
NVIDIA и биотех-стартап Basecamp Research анонсировали технологию программируемой вставки генов. В основе метода - биологические ИИ-модели NVIDIA EDEN.
Разработчики заявляют, что им удалось (basecamp-research.com/wp-content...) решить одну из фундаментальных задач медицины: безопасную замену участков ДНК в строго определенных локациях. Новая технология позволяет интегрировать генетический код без разрушения цепей, снижая риски мутаций.
Испытания подтвердили эффективность метода в более чем 10 000 точек человеческого генома. Технология продемонстрировала способность уничтожать раковые клетки и бороться с супербактериями, резистентными к антибиотикам.
https://basecamp-research.com/wp-content/uploads/2026/01/BCR_Designing-programmable-therapeutics-with-the-EDEN-family-of-foundation-models.pdf
#NVIDIA
NVIDIA и биотех-стартап Basecamp Research анонсировали технологию программируемой вставки генов. В основе метода - биологические ИИ-модели NVIDIA EDEN.
Разработчики заявляют, что им удалось (basecamp-research.com/wp-content...) решить одну из фундаментальных задач медицины: безопасную замену участков ДНК в строго определенных локациях. Новая технология позволяет интегрировать генетический код без разрушения цепей, снижая риски мутаций.
Испытания подтвердили эффективность метода в более чем 10 000 точек человеческого генома. Технология продемонстрировала способность уничтожать раковые клетки и бороться с супербактериями, резистентными к антибиотикам.
https://basecamp-research.com/wp-content/uploads/2026/01/BCR_Designing-programmable-therapeutics-with-the-EDEN-family-of-foundation-models.pdf
#NVIDIA
❤3👍1
🧠 Бесплатные курсы по нейросетям собрали в одном месте - на удобном сайте с подборкой материалов от OpenAI, Microsoft и других топовых компаний.
Проект Learn AI Go Where - это десятки проверенных курсов, гайдов и полезных ссылок по ИИ, которые реально стоит пройти. Без мусора и бесконечного поиска по всему интернету.
https://www.learnaigowhere.com/
Проект Learn AI Go Where - это десятки проверенных курсов, гайдов и полезных ссылок по ИИ, которые реально стоит пройти. Без мусора и бесконечного поиска по всему интернету.
https://www.learnaigowhere.com/
❤1