Если вы вдруг ждали этой новости, то вот - Hamster Combat залистился 🐹
Цена на бирже в итоге оказалась чуть меньше $0.01 за токен
То есть заработок большинства игроков не превысил пары тройки тысяч рублей. Вся надежда теперь на AI 🤖
Стоило ли пол года тапать за эту сумму?) Кто успел разбогатеть?
Цена на бирже в итоге оказалась чуть меньше $0.01 за токен
То есть заработок большинства игроков не превысил пары тройки тысяч рублей. Вся надежда теперь на AI 🤖
Стоило ли пол года тапать за эту сумму?) Кто успел разбогатеть?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁50😈4
✍️ Как реализовали?! Добавили асинхронный процесс саммаризации переписки c помощью LangChain’а. Сперва для увеличения качества диалога, но попутно стали использовать эту «память» для персональных пушей.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18🔥14👍4
🐍 Знали про быстрый deque ?
Для
deque предпочтительнее, чем обычный список, когда нужны более быстрые операции добавления и вытаскивания элементов с начала и конца контейнера.deque обеспечивает константную сложность O(1) для операций добавления и выталкивания, у стандартного списка максимальная сложность по этим операциям O(n).Для
deque есть возможность использовать стандартные функции — sum, min, max и другие.👍32🎉22❤10👎4 3😁2
— o1 (полная версия) написал рабочий код для управления дроном С НУЛЯ за одну попытку. Ведущий на сцене сразу отправил коптер полетать;
— Голосовой режим позвонил в магазин и заказал 400 🍓 в шоколаде, потом вкусностями кормили гостей. Видео постановочное, да и Google показывал это еще лет 5 назад, но все равно КРУТО;
— Voice Mod теперь доступен через Realtime API. Самая главная революция — теперь любое приложение может заговорить с вами ЧЕЛОВЕЧЕСКИМ голосом;
— Очень много времени уделили полной версии o1. Разрабы обещают, что будет ЕЩЕ ЛУЧШЕ, чем превью-версия, разрабы всяких тулз для кодинга уже интегрируют модель в свои сервисы, ждём релиз в ближайшие недели;
— На экранах в холле крутили видео с новой версией Sora. Выглядит прям ВАУ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤7🔥4🏆1🎃1
За что я не люблю телеграм
🔽 начал писать статью на Хабр
🔽 понадобилась картинка, пошел искать в тг канале
🔽 пока искал, придумал пост для сторис, который захотел запостить
🔽 делая пост, не смог эмоджи премиумное поставить
🔽 погнал оплачивать премак
🔽 оплачивая премак, понял надо деньги с расчетного вывести
🔽 погнал выводить, понял, что договор последний не подписал
🔽 пошел подписывать, пока подписывал, ЭДО подписи кончились
🔽 начал оплачивать с расчетного счета
🔽 пока оплачивал стало лень, захотелось статью написать
🔽 вспомнил про не дописанную статью, зашел на Хабр
🔽 вижу что картинки не хватает, погнал искать в тг
🕳 так, стоп блэт🤨
🕳 так, стоп блэт
Please open Telegram to view this post
VIEW IN TELEGRAM
😁94🦄9❤6🎃1
Будущее уже наступило
Зацените видос. Рассказал, как можно делать web приложения быстро и без программирования.
Зацените видос. Рассказал, как можно делать web приложения быстро и без программирования.
👍22🔥15👎10🦄8🎃1
This media is not supported in your browser
VIEW IN TELEGRAM
Основные фишки для кодинга:
— Моментально переносит код на другой язык программирования;
— Возможность улучшать, редактировать и фиксить полученный код в окне ответа;
— Код-ревью от алгоритма, исправление ошибок и комментирование.
При работе с текстом в Canvas можно:
— Регулировать стиль и сложность текста прямо на ходу;
— Проверять текста на ошибки, понятность и логическую последовательность;
— Редактировать длину текста без нового промта.
Платным подписчикам доступ уже открыт, а владельцы бесплатных аккаунтов смогут попробовать «холсты», когда закончится бета-тест.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👎8❤7🦄3🎃2👍1🎉1
🏆 Data Feeling | AI
Уже 6 месяцев пользуюсь и активно подсаживаю людей на copilot-like расширения. 🧑💻 Мой любимчик - это Codeium для VS Code. 🤯 Я уже настолько преисполнился в его использовании, что умудряюсь с одного Tab’а писать по 45 строк кода. Или даже закрываю длинные…
Media is too big
VIEW IN TELEGRAM
Еще одна мощная штука для фанатов Jupyter Notebook
Codeium можно как расширение установить в среду и повысить эффективность работы в несколько раз.
🔛 Если накидайте бустов до 10-го уровня, то скину видео-пример, как автокомплитеть код для обучения catboost’а по фолдам для любой таблицы или train loop’а для текстового датасета при обучение transformer’ов.
👾 Как же я кайфую от того, что застал этот AI бум 🧠
Codeium можно как расширение установить в среду и повысить эффективность работы в несколько раз.
Please open Telegram to view this post
VIEW IN TELEGRAM
Пересмотрел доклад с прошедшего Practical ML Conf 2024 про сервис «Нейро» Яндекса.
Несколько ключевых вещей, на которые я обратил внимание в их решении:
Снижают дисперсию (разнообразие) текстов разметки за счет инструкций.
И фишка в том, что модель таким образом не учит второстепенную информацию (стиль асессора), а фокусируется на извлечении информации из инфо-контекста (нагугленных ссылок.)
Подбирают оптимальную архитектуру и находят баланс между количеством необходимых данных и необходимыми мощностями при запуске в продакшен
Взяли Encoder-Decoder полегче вместо более «жирного» Decoder’а - потому что у ED архитектуры каждый токен аккумулирует всю информацию из инфоконтеста, в том время как у D архитектуры матрица между токенами треугольная и информация теряется.
Добавлена метрика «подверженность» - чтоб максимально фокусировать и тюнить модель на извлечении информации вместо фантазерства (галлюцинаций).
Остальные доклады с конфы можно посмотреть здесь.
Несколько ключевых вещей, на которые я обратил внимание в их решении:
Снижают дисперсию (разнообразие) текстов разметки за счет инструкций.
И фишка в том, что модель таким образом не учит второстепенную информацию (стиль асессора), а фокусируется на извлечении информации из инфо-контекста (нагугленных ссылок.)
Подбирают оптимальную архитектуру и находят баланс между количеством необходимых данных и необходимыми мощностями при запуске в продакшен
Взяли Encoder-Decoder полегче вместо более «жирного» Decoder’а - потому что у ED архитектуры каждый токен аккумулирует всю информацию из инфоконтеста, в том время как у D архитектуры матрица между токенами треугольная и информация теряется.
Добавлена метрика «подверженность» - чтоб максимально фокусировать и тюнить модель на извлечении информации вместо фантазерства (галлюцинаций).
Остальные доклады с конфы можно посмотреть здесь.
👍18❤11👎1
Online Image Tools превращает черно-белые фото в цветные, прокачивает их качество, удаляет фон и многое другое.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍13
GraphRAG от Microsoft использует большие языковые модели для создания подробных графов знаний из текстовых документов, помогая выполнять сложные запросы к данным.
Этот инструмент превосходит традиционный RAG, предлагая комплексный структурированный поиск информации.
GraphRAG можно легко развернуть в Azure с помощью предоставленного ускорителя решений.
🐙 GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26❤4
Федеративное машинное обучение: новый подход для безопасного сотрудничества в ИИ
Яндекс, ИСП РАН и Сеченовский Университет опробовали федеративное машинное обучение для задач медицины - технологию, которая позволяет организациям вместе обучать нейросети, не обмениваясь чувствительными данными.
Проект реализовал Центр технологий для общества Yandex Cloud, специалисты которого разрабатывают решения для образования, науки, культуры и здравоохранения.
Как это работает
Федеративный подход позволяет участникам коллективно обучать модели, никому не передавая свои данные. Модель обучается на каждом из датасетов участников проекта, а на центральный сервер передаются не сами датасеты, а результаты их обработки - к примеру, изменения в весах модели. Именно на них затем обучается глобальная модель.
С федеративного сервера на клиенты отправляются задания, которые включают в себя код модели и конфигурации. При этом не каждый пользователь может отправить такое задание, есть четкое разделение ролей. После создания задания проводится проверка на стороне сервера и на стороне клиентов. Те задания, которые прошли проверку, выполняются на клиентах. Далее запускается еще одна проверка на стороне клиентов - можно ли отправить обратно на сервер результат обучения. За счет таких многофакторных проверок обеспечивается безопасность данных.
Преимущества федеративного машинного обучения в том, что организации могут безопасно сотрудничать в проектах, связанных с чувствительной информацией. А в перспективе технология позволит создать более точные модели, используя данные от нескольких источников.
Яндекс, ИСП РАН и Сеченовский Университет опробовали федеративное машинное обучение для задач медицины - технологию, которая позволяет организациям вместе обучать нейросети, не обмениваясь чувствительными данными.
Проект реализовал Центр технологий для общества Yandex Cloud, специалисты которого разрабатывают решения для образования, науки, культуры и здравоохранения.
Как это работает
Федеративный подход позволяет участникам коллективно обучать модели, никому не передавая свои данные. Модель обучается на каждом из датасетов участников проекта, а на центральный сервер передаются не сами датасеты, а результаты их обработки - к примеру, изменения в весах модели. Именно на них затем обучается глобальная модель.
С федеративного сервера на клиенты отправляются задания, которые включают в себя код модели и конфигурации. При этом не каждый пользователь может отправить такое задание, есть четкое разделение ролей. После создания задания проводится проверка на стороне сервера и на стороне клиентов. Те задания, которые прошли проверку, выполняются на клиентах. Далее запускается еще одна проверка на стороне клиентов - можно ли отправить обратно на сервер результат обучения. За счет таких многофакторных проверок обеспечивается безопасность данных.
Преимущества федеративного машинного обучения в том, что организации могут безопасно сотрудничать в проектах, связанных с чувствительной информацией. А в перспективе технология позволит создать более точные модели, используя данные от нескольких источников.
👍22😁4❤1👎1 1
📚 AI контент лучше заходит, чем человеческий
Вышло исследование по 1,2 миллиона постов, из которого выяснили, что публикации с использованием нейросетей получают больше охватов, чем без нейронок. В среднем на несколько по всем соцсетям.
Дело скорее не в качестве, а в количестве и скорости. Чем больше постов — тем больше шансов зацепить аудиторию по алгоритмам. А также и регулярность получится соблюдать. Моему каналу с 3 постами, кхе-кхе, за месяц этого не понять.
Хотя работа алгоритмов подойдёт для твитера или инсты, но не применимо для Telegram, поскольку канал быстро может надоесть от однотипности и частоты.
Кто и как экспериментировал с AI в создании контента? Есть успехи?
🤖@datafeeling
Вышло исследование по 1,2 миллиона постов, из которого выяснили, что публикации с использованием нейросетей получают больше охватов, чем без нейронок. В среднем на несколько по всем соцсетям.
Дело скорее не в качестве, а в количестве и скорости. Чем больше постов — тем больше шансов зацепить аудиторию по алгоритмам. А также и регулярность получится соблюдать. Моему каналу с 3 постами, кхе-кхе, за месяц этого не понять.
Хотя работа алгоритмов подойдёт для твитера или инсты, но не применимо для Telegram, поскольку канал быстро может надоесть от однотипности и частоты.
Кто и как экспериментировал с AI в создании контента? Есть успехи?
🤖@datafeeling
🔥11❤5🏆3👍2