PROAI expert – Telegram
PROAI expert
20K subscribers
319 photos
117 videos
5 files
266 links
Экспертное ответвление культового канала о нейросетях PROAI — @pro_ai_news. Только экспертный контент и общение с экспертом в живую.

По всем вопросам — @Benji_Pan

Реклама — ТОЛЬКО @neiromanager

РКН - https://gosuslugi.ru/snet/67ee8214a33d562f1a3de770
Download Telegram
🤕Похакатоним немножечко

Что такое хакатон?

Хакатон — это ИТ-тусовка, где команды программистов, дизайнеров и менеджеров за короткий срок решают техничные задачи или предлагают новые продуктовые идеи. Цель — создать хотя бы базовый прототип или показать решение проблемы. Название "хакатон" происходит от слов "hack" (креативное решение задачи) и "марафон" (непрерывная работа), что идеально описывает атмосферу этих мероприятий, которые обычно длятся от 24 до 72 часов.

На хакатонах участники могут либо работать соло, используя свои идеи и навыки, либо объединяться в команды. Кульминация — презентация проектов перед жюри, которое оценивает инновационность, оригинальность и потенциал каждого решения.

Ближайшие хакатоны в августе и сентябре 2024

Вот список ближайших хакатонов в России.

1. ВШЭ ПСБ.Хак
Участвуй в хакатоне по искусственному интеллекту под руководством экспертов НИУ ВШЭ и ПСБ. Вместе разработаем новый финансовый продукт для студентов.
- Когда: 20-22 сентября (регистрация до 16 сентября).
- Где: онлайн/оффлайн в Москве
- Подробнее здесь.

2. Kazan Digital Transformation 2024
Прокачай цифровое развитие Казани и найди инновационные решения для городской среды. Выиграй денежный приз и получи стажировку или оффер в топовые компании.
- Когда:
  - 12-13 августа (Онлайн-этап): разработка концепций.
  - 14-23 августа: самостоятельная работа над проектом.
  - 24-25 августа (Оффлайн-этап): работа над MVP в Казани. Финал и награждение победителей.
- Подробнее здесь.

3. Интенсив RTL.Hack
Хакатон (с фуршетом!) по теме “Автоматизированная сегментация поставщиков для их эффективного привлечения в электронные торги”. Прокачаем инструментарий сегментации поставщиков.
- Когда: 7 сентября 2024 года
- Где: оффлайн в Санкт-Петербурге
- Подробнее здесь.

4. Хакатон Всероссийского форума молодых ученых «Полюс»
Проходит в рамках трека «Инноваторы» и включает направления: искусственный интеллект, беспилотники, робототехника. Лучшие команды получат стажировки и ценные призы.
- Когда: Онлайн – 16 по 29 сентября. Офлайн – 30 сентября по 3 октября.
- Где: онлайн и Архангельск.
- Подробнее здесь.

5. Окружной хакатон в Омске. Цифровой Прорыв: сезон Искусственный Интеллект
Командное соревнование, где решаются кейсы от государства и бизнеса по ИИ и другим IT-тематикам. Участвовать можно онлайн и офлайн.
- Когда: 6-8 сентября (регистрация до 29 августа)
- Где: онлайн/оффлайн в Омске
- Подробнее здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Давайте сыграем с Вами в игру 🤡

Я уже устраиваил такую викторину месяца 4 назад, но за это время все модели обновились и теперь интересно проверить, как хорошо вы определяете, где сгенерированная фотография, а где нет.

Скажу сразу, что я использовал нейронки, которые доступны бесплатно: krea.ai, LeonardoAI, Шедеврум и Ideogram и одна картинка реальная.

Я сейчас сделаю опрос, в котором вы попытаетесь угадать, какая фотография реальная. А в комментариях можете предположить, в каких программах какое изображение сгенерировано.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Где реальная?
Anonymous Quiz
21%
1
37%
2
31%
3
4%
4
7%
5
ИИ всех переиграл 😏

Итак, по результатам, из всего количества ответов, правильно распознали настоящее фото только 34%.

Это что получается, скоро мы вообще не сможем отличить где ИИ-фото, а где нет?

P.S. скоро опубликую обзор на нейронку.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вигл-вигли. Нейронка для видосиков с танцами 🕺

Снова у нас на обзоре стилизация видео с людьми и танцами. Называется, как можно понять, ViggleAI. Есть приложения для Android, IOS и веб-версия.

Дают 10 бесплатных генераций в день, что очень щедро, но на видео будет вотермарка. А платная версия стоит 10$.

Как вообще работает и что делает?

По сути, она просто накладывает на исходное видео, персонажа, которого вы загружаете. Так сказать, натягивают сову на глобус.

В том примере, который я видел, сервис делает это достаточно неплохо. Но я люблю устраивать стресс-тесты для них и давать тяжелые задачи.

Этот раз не стал исключением. Я взял видео с очень активным танцем и сменой ракурсов и росомаху, как замену персонажа.

По алгоритму действий все то же самое, как я описывал выше. Но еще есть функция работы с задником. Как я понимаю, можно убрать фон, заменив его зеленкой и потом добавить что хотите.

Результат с таким сложным видео , естественно, получился не очень. Все смазано и сильно заметно, что это ии-шная замена, но я залью это видео в тик-ток и посмотрю, как оно будет продвигаться.

А вы можете устроить свои эксперименты. Если хотите добиться хорошего результата, то ловите пару рекомендаций:
- подбирайте исходники с хорошим качеством и в полный рост;
- старайтесь учитывать комплекцию персонажей так, чтобы они были примерно одного размера;
- и выбирайте видео с не самыми сложными движениями.

Успехов Вам и делитесь своими примерами в комментариях.
3👍1🥱1
🌐Крутое, но сложно понятное открытие от химиков Копенгагена!

Три гения из Копенгагенского университета разработали приложение на базе ИИ, которое способно определять фазу рентгеновских лучей, дифрагированных кристаллами. Это открытие прокладывает путь к точному предсказанию структуры небольших молекул!

Как это работает

Традиционно, чтобы понять структуру молекул, их превращают в кристаллы и облучают рентгеном. Но загвоздка в том, что фазу лучей определить сложно, и часто приходится угадывать, что ведет к неточным данным.

Теперь, благодаря приложению PhAI, эта проблема решена! Исследователи создали миллионы искусственных моделей молекул и обучили ИИ распознавать размытые паттерны. Результат? Точная структура 2400 молекул!

Что дальше?

Команда планирует расширить возможности PhAI и интегрировать его с моделями типа ChatGPT для автоматизации анализа.
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Программисты с жиру бесятся? 😡

🔥 Результаты ежегодного опроса Stack Overflow: что бесит разработчиков?

Недавний опрос Stack Overflow зацепил сразу несколько горячих тем: от искусственного интеллекта до рекордного недовольства на работе. Разработчики по всему миру явно не в восторге от своих условий труда.

💥 Неудовлетворенность работой: 80% профи не счастливы на работе. Каждый третий откровенно ненавидит её, а половина выживает как может. Высокие зарплаты и удаленка не спасают.

💸 Деньги и ожидания: ЗП начинают падать. Например, PHP-разработчики получают в среднем $49,000 в год. Только те, кто совмещает кодинг с предпринимательством, реально выигрывают.

Технический долг: Это раздражает больше всего. Костыли и несовершенные системы деморализуют и мешают работать.

Культура суеты: Безумные дедлайны и завышенные ожидания ведут к выгоранию. Частая смена работы – временное спасение, но стресс возвращается.

Бюрократия: В крупных компаниях – бесконечные совещания и оторванные от реальности требования. Вместо кода – бумажная работа, и это бесит.

Здоровье и сокращения: Массовые увольнения породили неуверенность. А сидячая работа вредит здоровью. Движение – наше всё!

⚡️ Код – не проблема: Несмотря на всё, 68% пишут код в свободное время для фана, почти 40% – ради роста и обучения. Проблема не в коде, а в условиях!

Разработчики, держитесь! 👊
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Тонкое искусство настройки LLM 👌

Я тут понял, что уже успел Вам рассказать, что такое, RAG - вот пост, если что, но так и не рассказал про его предвестника - Fine-tuned model, иди же, говоря по-русски, тонкую настройку LLM.

Ниже я исправляюсь, но перед этим дам вам понимание в чем разница между RAG и Fine-tuned. В первом случае LLM будет использовать для ответов информацию только из того источника, который вы ей предоставите, а во втором использовать собственные данные и те, которые вы ей дополнительно дадите. Итак:

Как работает Fine-tuning

Fine-tuning — это процесс дообучения модели на специфических данных. После общего обучения модель дорабатывают, чтобы она стала экспертом в конкретной области.

Процесс:

1. Предварительное обучение: Модель обучается на разнородных данных, чтобы понять структуру и нюансы языка.
2. Тонкая настройка (Fine-tuning): Модель дообучают на узконаправленных данных, например, медицинских или юридических текстах, чтобы она могла решать специфические задачи.

🕹 Зачем это нужно?

Fine-tuning позволяет модели стать более специализированной и точной:

- Специализация: Модель адаптируется под конкретные задачи, будь то медицина, финансы или юриспруденция. Это как изучение узкой специализации после общего курса.
- Точность: Повышается качество выводов и снижается количество ошибок.
- Эффективность: Модель выполняет задачи быстрее и надёжнее.

💻 Примеры использования

- Медицина: Fine-tuned модели помогают врачам анализировать симптомы, предлагать диагнозы и даже разрабатывать планы лечения.
- Юриспруденция: Автоматизируют анализ контрактов, находят ключевые пункты и даже прогнозируют исходы судебных дел.
- Бизнес: Улучшают взаимодействие с клиентами через чат-боты, которые понимают и решают запросы быстрее.

🤖 Будущее с Fine-tuned LLM

Fine-tuned LLM — это мощный инструмент, который позволяет компаниям и специалистам добиваться лучших результатов. Это как иметь универсального помощника, который может адаптироваться к любым задачам. В мире, где точность и скорость решают всё, такие модели становятся незаменимыми.

Так что, если хотите сделать свои AI-решения умнее и эффективнее, Fine-tuning — ваш лучший друг! 😀

Когда-нибудь мы дойдем до того, что я буду не просто описывать общими словами как это работает и для чего применяется, а давать инструкции, но пока что стараюсь разобраться сам.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Братишка, я тебе покушать принёс 🌈

Точнее, большое количество ссылок с промптами и инструкциями по применению различных нейросетей, от LLM до генераторов изображений.

Пользуйтесь:

🔤Pompthero.com/
Огромная библиотека промтов для генерации изображений с удобной навигацией.

🔤Docs.anthropic.com/en/prompt-library/library
Документация с промтами в первую очередь для чат-бота Claude.

🔤Promptlibrary.org/
Промты и примеры картинок, созданных нейросетью Midjourney.

🔤Snackprompt.com/
Большая библиотека промтов для разных нейросетей, есть платные предложения.

🔤Writesonic.com/blog/chatgpt-prompts
Структурированная статья с примерами промтов для ChatGPT.

🔤Ailib.ru/promts/
Очень много промтов и примерно столько же рекламы, есть поиск и рубрики.

🔤Prompthackers.co/
Коллекция, которая, помимо прочего, содержит довольно оригинальные промты.

🔤Awesomegptprompts.com/categories
Небольшой каталог промтов для ChatGPT и других текстовых нейросетей.

🔤Learnprompting.org/ru/docs/introduction
По сути гайд, но со множеством примеров универсальных промтов.

🔤Prompts.chat
Репозиторий, посвящённый примерам использования

Neurobot.ru/prompts
Готовые промты для генерации изображений с помощью разных нейросетей.

🔤Academy.bothub.chat/biblioteka-promtov
Большая коллекция небанальных промтов, завёрнутая в курс.

🔤Developers.sber.ru/help/gigachat/catalog
Каталог промтов в первую очередь для GigaChat, но в целом применимых везде.

🔤Ai.mitup.ru/prompts
Коллекция универсальных промтов для создания контента и автоматизации рутины.

🔤Gptchat4.ru/prompts
Библиотека промтов для ChatGPT, которые можно протестировать прямо на сайте.

🔤Prompt-chatgpt.ru/biblioteka-promptov/
База промтов для чат-ботов с рубрикатором, в котором можно выбрать самые разные задачи.

🔤Prompt1.ru/
Библиотека промтов для генерации изображений и текста с обширным фильтром.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝3
Что такое AGI и когда ждать

AGI (Artificial General Intelligence) — это искусственный интеллект, который может делать всё как человек. Представь себе ИИ, который и код пишет, и музыку сочиняет, и котиков рисует. Это как если бы ваш смартфон вдруг стал лучшим другом, с которым можно обсудить всё на свете.

Суть AGI

В отличие от узконаправленных ИИ, как Alexa или Siri, которые помогают с конкретными задачами, AGI должен быть универсальным. Представь, что у твоего компьютера появились настоящие мозги!

На данный момент основные направления исследований в области AGI включают:

1. Усиленное обучение (Reinforcement Learning):
   - Разработка алгоритмов, позволяющих системам обучаться через взаимодействие с окружающей средой.

2. Метаобучение (Meta-learning):
   - Создание систем, которые могут учиться учиться, адаптируясь к новым задачам с минимальными данными.

3. Объяснимый ИИ (Explainable AI):
   - Улучшение способности ИИ объяснять свои решения, чтобы повысить доверие и понимание.

4. Нейроморфные вычисления:
   - Использование архитектур, вдохновлённых человеческим мозгом, для повышения эффективности обучения и обработки информации.

5. Интеграция многомодальных данных:
   - Разработка моделей, способных обрабатывать и интегрировать различные типы данных (текст, изображения, аудио).

6. Общая теория интеллекта:
   - Исследования, направленные на понимание и моделирование принципов, лежащих в основе человеческого мышления.

Эти направления помогают приблизиться к созданию более универсальных и адаптивных систем.

Почему AGI сейчас невозможен

1. Ограниченные алгоритмы:
   - Современные ИИ обучаются на специфических данных и выполняют конкретные задачи. Они не могут обобщать знания или адаптироваться к совершенно новым ситуациям, как это делает человек.

2. Отсутствие понимания контекста:
   - ИИ может разбираться в текстах и изображениях, но не понимает их так, как человек. Например, ИИ может описать картину, но не почувствовать её атмосферу.

3. Невозможность самообучения:
   - Сегодняшние модели требуют огромных массивов данных и корректировки от людей. Настоящий AGI должен учиться сам, как ребёнок, экспериментируя и запоминая.

4. Энергопотребление и вычислительные мощности:
   - Современные ИИ требуют колоссальных ресурсов. Например, обучение больших моделей, как GPT, занимает тысячи GPU-часов. AGI потребовал бы ещё больше.

5. Отсутствие общей теории интеллекта:
   - Мы до сих пор не понимаем, как работает человеческий мозг на уровне, достаточном для его полной симуляции.

Проблемы на пути к AGI

- Этические вопросы:
  - Контроль и безопасность — как предотвратить возможные негативные последствия?
 
- Ресурсы:
  - Огромные мощности и данные необходимы для обучения. Это требует значительных вложений.

Когда ждать AGI?

Оптимисты говорят, что это вопрос десятилетий, пессимисты — полувека. Но технологии развиваются стремительно. Вспомни, как быстро телефоны стали умными — может, и здесь всё произойдёт быстрее.

AGI — это как научная фантастика, которая становится реальностью. Главное — двигаться вперёд, но с умом.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Что за зверь оптические нейросети? 🤔

Наткнулся я тут на статью, в которой ничего не понял. В три числе, что такое оптические нейросети. Пошел изучать и заодно вам рассказывать.

Оптические нейросети: Чё за зверь?

Если вы думали, что нейросети — это круто, то держись: оптические нейросети — это вообще космос! Они используют для вычислений не электричество, а свет. Представьте себе: ваш компьютер работает на лазерах!

Как они работают?

1. Компоненты:
   - Лазеры и фотодетекторы: используются вместо микросхем. Свет проходит через эти штуки, обрабатывая по пути обрабатывая информацию.
   - Интерферометры: Это как миксеры для световых волн. Они изменяют их фазы для вычислений.

2. Волноводы:
- Каналы для света, как те же самые провода, только для световых импульсов.

В чём плюсы?

- Скорость: Свет быстрее электричества, так что обработка данных ускоряется как на реактивной тяге.
- Энергоэффективность: На этот метод тратиться меньше энергии.
- Параллельная обработка: Работают над кучей задач сразу, как если бы у тебя было тысяча рук.

Зачем это нужно?

Представьте себе ИИ, который в реальном времени анализирует данные, как в фильмах про супергероев. Это значит, что можно будет мгновенно обрабатывать огромные объёмы инфы в медицине, безопасности и ещё куче сфер.

Оптические нейросети — это будущее, которое уже стучится в дверь. Скоро наш мир станет ещё быстрее и умнее. Так что держи руку на пульсе, пока ИИ нам их не откусил.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8
🚀 Прорыв в оптимизации языковых моделей (LLM): что нового?

Друзья, тут у нас горячие новости из мира AI! Исследователи из T-Bank AI Research представили новую архитектуру для языковых моделей, которая может серьезно изменить игру в области обработки текста.

В чем суть?
Если раньше модели типа GPT, BERT и их собратья были довольно ресурсоемкими — буквально пожирали гигабайты памяти и терафлопсы вычислительной мощности, то новая архитектура предлагает нечто более изящное и эффективное. Что же сделали ребята из T-Bank?

Основные новшества:
🔤Эффективное извлечение информации: Исследователи предложили добавить обучаемые параметры к механизму извлечения информации. Проще говоря, они научили модель быть умнее при обработке контекста. Теперь она не просто тупо сканирует текст, а знает, где и что искать, чтобы не тратить лишние ресурсы.

🔤Оптимизация работы с длинными текстами: Благодаря новой архитектуре, модель теперь быстрее и эффективнее справляется с длинными текстами. Это особенно круто, когда нужно обрабатывать большие объемы данных в реальном времени — например, для анализа длинных документов или потоков новостей.

🔤Снижение затрат на вычисления: Благодаря всем этим оптимизациям, новая архитектура снижает нагрузку на железо. Теперь те задачи, на которые раньше уходили минуты (а иногда и часы), могут быть выполнены за секунды.

Пример для простых смертных
Представьте, что раньше вы искали нужный отрывок в книге, листая страницу за страницей. Это медленно и утомительно. А теперь у вас есть супер-поисковик, который сразу показывает вам нужное место, плюс отмечает важные слова и фразы. Вот это и делает новая архитектура с текстом — экономит время и ресурсы.j

Зачем это нужно?
Такая оптимизация открывает двери к более широкому применению LLM в реальном времени: от улучшения голосовых ассистентов до более быстрых чат-ботов, работающих с огромными объемами информации. В будущем мы можем ожидать, что даже на слабом железе будут работать мощные модели, способные решать сложные задачи в мгновение ока.

Если вас интересуют детали, почитайте полное исследование здесь. Там всё подробно расписано.

А код на GitHub.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🧠 на работе: Лёгкость или выгорание?

Тут Upwork выкатил отчёт, который говорит, что ИИ не всегда облегчает жизнь. По их исследованию, вместо кайфа от новых технологий, народ ловит стресс и перегруз.

Что говорят цифры?

- Рабочая нагрузка: ИИ увеличил ожидания. Работники жалуются, что не справляются с новыми инструментами.
- Выгорание: 71% сотрудников в стрессе, особенно молодёжь. Женщины чувствуют это чаще, чем мужчины.
- Удочка надежды: 81% тех, кто освоил ИИ, говорят об увеличении эффективности. Но это не для всех.

Гонка вооружений

Компании используют ИИ, чтобы фильтровать резюме, а соискатели — чтобы их писать. Получается, что вместо упрощения, объём работы только растёт.

Реальные истории

Как пример, одна компания попросила начинать письма со слова "BANANA", чтобы обойти ИИ-фильтры. Вот такие вот забавные фишки.

Что думают боссы?

- 85% руководителей хотят, чтобы ИИ использовали все.
- 96% уверены, что его применение будет только расти.

Но из-за этого 65% работников с трудом справляются с требованиями. Каждый третий думает об

Будущее за удалёнкой?

Upwork предлагает бороться с перегрузом через фрилансеров. Многие компании уже перешли на гибкие модели работы.

Так что, ИИ — это круто, но пока не для всех. Надо грамотно вписывать его в работу, чтобы не перегореть.

Подробнее про исследование тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42
Нужно больше энергии

Поговорим с Вами немного об энергозатратах на ИИ. И причем тут майнеры?

Они могут оказаться на коне, если переключат часть своих мощностей на обеспечение ИИ. По данным из последнего отчета, это может принести им до $13,9 млрд дополнительного дохода в год!

Вообще не секрет, и даже я уже не раз об этом писал, что ИИ-системы требуют всё больше энергии и мощностей для обработки данных, а майнинг крипты уже не всегда окупается из-за диких скачков курсов. Но если майнеры начнут использовать свои фермы для поддержки ИИ, они смогут получать стабильный доход, снижая риски, связанные с волатильностью крипты. Это как найти новую золотую жилу: вместо того, чтобы зависеть только от биткоина, майнеры смогут стать основными поставщиками мощностей для быстро растущего рынка ИИ.

Представьте себе: крупные компании вроде Bitmain и другие могут переориентировать свои фермы, не только добывая биткоины, но и обеспечивая энергией и мощностями ИИ-алгоритмы. Это не только снизит их зависимость от скачков курса крипты, но и сделает их бизнес более устойчивым и прибыльным. По сути, они диверсифицируют свой бизнес, добавляя новый поток дохода и меньше завися от рыночной нестабильности.

Что это значит для индустрии? Вполне возможно, что мы на пороге новой эры, где майнинг станет не просто про криптовалюты, а еще и про ИИ. И те, кто вовремя поймёт эту тему, могут серьёзно выиграть в долгосрочной перспективе.

Стоит еще вспомнить, что активно развиваются идеи создать децентрализованный ИИ, так что вкладываемся в акции Nvidia или собираем свои майнерские фермы - скоро их ждет вторая жизнь.
Please open Telegram to view this post
VIEW IN TELEGRAM
6
Причем тут игры? 🤪

Наткнулся на статью про LLM и теорию игр, которая реально меняет подход к обучению моделей.

Теперь модель, прежде чем выдать ответ, сперва генерит кучу вариантов и потом сама с собой их обсуждает. Сценарий такой: на один и тот же запрос модель выдаёт несколько разных вариантов ответа, причём ответы могут быть с разных углов зрения. Это как если бы ты сам себе кинул пять вариантов решения одной и той же задачи и начал бы их сравнивать. Тут и начинается самое интересное — модель вступает в "игру в консенсус". Она как будто начинает спорить сама с собой: какой ответ точнее, какой понятнее, какой вообще полный бред.

Зачем всё это? Чтобы, в итоге, дать тебе не просто какой-то ответ, а наиболее выверенный и логичный вариант. Короче, модель типа учится сама у себя — подкидывает гипотезы, сверяет и согласовывает, пока не придёт к адекватному выводу. Меньше рандома, больше точности и разумности в её ответах. Ты не получишь что-то, что модель вытащила от балды, потому что она несколько раз подумает, оценит и сверит все возможные варианты, прежде чем тебе что-то сказать.

На практике это прокачает много областей. Чат-боты начнут давать осмысленные и проработанные ответы, даже если вопрос сложный или сформулирован криво. Переводчики и системы поиска информации начнут работать умнее, ведь модель не просто сразу даст тебе первый попавшийся ответ, а будет перебирать и сравнивать разные варианты, пока не придёт к чему-то логичному.

Примерно как ты с другом сидишь, что-то обсуждаешь, и в конце вы приходите к общему мнению. Так и тут — модель обсуждает сама с собой, чтобы не тупануть и выдать то, что реально соответствует твоему запросу.

🤔Как это меняет игру? Ну, во-первых, качество ответов взлетает, во-вторых, надёжность моделей увеличивается — ты не будешь получать какой-то рофл или бред. Ну и дополнительных данных для дообучения почти не нужно, модель просто начинает эффективнее использовать уже имеющиеся знания.

Короче, это очередной шаг к более умным и понятным ИИ. Думаю, будущее за этим, и совсем скоро наши любимые боты будут мыслить не хуже нас.
Please open Telegram to view this post
VIEW IN TELEGRAM