Попросил deepseek сгенерировать гринтекст из копипасты про батин суп от имени обоев:
>быть мной
>просто чилю с цветочным узором
>слышу лязг на кухне
>батя врывается с "супом" трёхдневной выдержки
>замечает сковородку
>бляяя.jpg
>наблюдаю, как он вываливает холодный суп на раскалённый металл
>добавляет лука на целый колхоз
>уровень чеснока зашкаливает
>батя высыпает кило красного перца и МУКИ
>томатная паста возносится в пятое измерение
>температура в комнате достигает уровня бани
>сковорода достигает состояния термоядерного синтеза
>он выносит это на балкон, как проклятый артефакт
>инфернальная жижа блестит под МАЙОНЕЗОМ
>скрежет ЛОЖКИ эхом разносится по квартире
>химическая атака нарушает Женевскую конвенцию
> вонь проникает сквозь краску, штукатурку, время
> пытаюсь держаться, но знаю, что будет дальше
>мой клей капитулирует
> "нет, только не снова" – мысленно кричу, пока полоски отстают от стены
>отклеиваюсь медленно, в экзистенциальном ужасе
>последнее, что вижу: сын отказывается от порции
Пару лет назад писал здесь про поиск "аномальных токенов" в GPT-3.
Аномальные токены — это такие слова, при работе с которыми LLM начинает сходить с ума и вести себя неправильно.
Сейчас наткнулся на пост чувака, который нашел кучу подобных токенов в новой deepseek.
С deepseek и подобными "проклятыми" словами играться куда интереснее, потому что в отличие от GPT-3 можно посмотреть еще и процесс размышлений модельки перед ответом.
Там же автор описывает довольно интересный процесс поиска подобных слов и показывает примеры поведения LLM при работе с ними.
Занятие на вечер найдено — буду придрачивать deepseek этими токенами до посинения
Аномальные токены — это такие слова, при работе с которыми LLM начинает сходить с ума и вести себя неправильно.
Сейчас наткнулся на пост чувака, который нашел кучу подобных токенов в новой deepseek.
С deepseek и подобными "проклятыми" словами играться куда интереснее, потому что в отличие от GPT-3 можно посмотреть еще и процесс размышлений модельки перед ответом.
Там же автор описывает довольно интересный процесс поиска подобных слов и показывает примеры поведения LLM при работе с ними.
Занятие на вечер найдено — буду придрачивать deepseek этими токенами до посинения
Telegram
Neural Shit
Интересная статья для тех, кто ковыряется с языковыми модельками, особенно с gpt2 и gpt3.
Суть вкратце: чуваки нашли "аномальные" токены, большинство из которых выглядят как-то странно, например "externalToEVA", "rawdownloadcloneembedreportprint", "PsyNetMessage".…
Суть вкратце: чуваки нашли "аномальные" токены, большинство из которых выглядят как-то странно, например "externalToEVA", "rawdownloadcloneembedreportprint", "PsyNetMessage".…
Forwarded from Ai molodca (Dobrokotov)
Please open Telegram to view this post
VIEW IN TELEGRAM
Спрос на junior-специалистов в области Machine Learning за год вырос на 36% — IBS
Около 80% компаний внедряют нейросети в работу или планируют заняться этим — и им нужны умелые руки, которые интегрируют ИИ в бизнес-процессы. Поэтому спрос на ML-инженеров постоянно растёт, а их средняя зарплата сейчас превышает 210 000 рублей.
Освоить профессию с нуля, пройти стажировку и получить оффер вы сможете на курсе «Machine Learning» от Академии Eduson и Teach Me Skills.
За 7,5 месяцев вы научитесь обучать нейросети и внедрять модели машинного обучения в бизнес-процессы. Избавитесь от страха, что вас заменит ИИ — ведь даже самый продвинутый алгоритм не может развиваться без «оператора».
Во время обучения вас год будет поддерживать куратор. После программы попадёте в Карьерный центр Eduson, где вам помогут составить резюме и портфолио, научат откликаться на вакансии и проходить собеседования.
Оставьте заявку с промокодом NEURAL и получите скидку 65%.
Реклама. ООО "Эдюсон", ИНН 7729779476, erid: 2W5zFJtAZQL
Около 80% компаний внедряют нейросети в работу или планируют заняться этим — и им нужны умелые руки, которые интегрируют ИИ в бизнес-процессы. Поэтому спрос на ML-инженеров постоянно растёт, а их средняя зарплата сейчас превышает 210 000 рублей.
Освоить профессию с нуля, пройти стажировку и получить оффер вы сможете на курсе «Machine Learning» от Академии Eduson и Teach Me Skills.
За 7,5 месяцев вы научитесь обучать нейросети и внедрять модели машинного обучения в бизнес-процессы. Избавитесь от страха, что вас заменит ИИ — ведь даже самый продвинутый алгоритм не может развиваться без «оператора».
Во время обучения вас год будет поддерживать куратор. После программы попадёте в Карьерный центр Eduson, где вам помогут составить резюме и портфолио, научат откликаться на вакансии и проходить собеседования.
Оставьте заявку с промокодом NEURAL и получите скидку 65%.
Реклама. ООО "Эдюсон", ИНН 7729779476, erid: 2W5zFJtAZQL
Forwarded from Denis Sexy IT 🤖
Если вам давно хотелось поиспользовать LLM для чего-то прям полезного – то вот у меня ссылка есть, не благодарите:
https://huggingface.co/spaces/Trudy/gemini-image-to-code
Скармливаете ей картинку или мем, а она делает интерактивные мини-код-приложения, из того что видит
Главное в АИ-проектах – это польза😂
https://huggingface.co/spaces/Trudy/gemini-image-to-code
Скармливаете ей картинку или мем, а она делает интерактивные мини-код-приложения, из того что видит
Главное в АИ-проектах – это польза
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Увидел у Лаиды в канале, что Deepseek считает, что он Яндекс ГПТ, лол.
Написал скриптец, который по API обращается к дипсику 200 раз с похожими вопросами.
В итоге из 200 запросов 48 раз был ответ, что он — это YandexGPT и сделан в России, лол.
Тут можно было бы подумать, что мы чего-то не знаем. Но на самом деле, причина проста — DeepSeek обучался на открытых данных, где, видимо, были и синтаксические данные Яндекса. Так что, сколько не смейся над DeepSeek, выиграла тут только она – так тупо сильно дешевле
Написал скриптец, который по API обращается к дипсику 200 раз с похожими вопросами.
В итоге из 200 запросов 48 раз был ответ, что он — это YandexGPT и сделан в России, лол.
Тут можно было бы подумать, что мы чего-то не знаем. Но на самом деле, причина проста — DeepSeek обучался на открытых данных, где, видимо, были и синтаксические данные Яндекса. Так что, сколько не смейся над DeepSeek, выиграла тут только она – так тупо сильно дешевле