Павел Шерер
Рынок найма мутировал. Любой, кто в последнее время сталкивался с поиском работы или сотрудников, подтвердит это. Сейчас из каждого утюга кричат, что найти работу стало, мягко говоря, сложновато. А квалифицированные кадры — вообще нереально. Парадокс: на…
Прошлая встреча на канале была посвящена рынку найма и прошла просто великолепно. Было не только лампово, но и весьма полезно. Просидели больше часа, но так всё и не обсудили.
Поэтому я предлагаю повторить. Тем более, что в этот раз у нас будет специальная гостья из HR-индустрии.
Встречаемся в следующий четверг, 11.12 в 20:00.
Ставьте в календари. Обсудим, как выживать на мутировавшем рынке специалистам и работодателям. В прикреплённом сообщении подробности.
P.S. А после этого сделаем ещё одну встречу, в этот раз про то, кто как юзает ИИ в создании контента. Обсудим способы применения, этические аспекты и современный луддизм. Не переключайтесь
Поэтому я предлагаю повторить. Тем более, что в этот раз у нас будет специальная гостья из HR-индустрии.
Встречаемся в следующий четверг, 11.12 в 20:00.
Ставьте в календари. Обсудим, как выживать на мутировавшем рынке специалистам и работодателям. В прикреплённом сообщении подробности.
P.S. А после этого сделаем ещё одну встречу, в этот раз про то, кто как юзает ИИ в создании контента. Обсудим способы применения, этические аспекты и современный луддизм. Не переключайтесь
4❤9🔥8🎉4👍2👏1
Немного выходного вайба.
Вайба — в смысле вайб-кодинга. Вот такой конфигуратор я запилил с Google AI Studio за полдня. Буквально, 4 с небольшим часа работы.
Это реально смена правил игры. Раньше я бы страдал дня два с Codex или дня три с Cursor. А ещё раньше я бы нанял отдельного фронтендера для этого (общение с которым заняло бы те же полдня). А сейчас 99% логики и 70% стилей аишка сделала за меня.
И даже реально сложные функции, типа форматированного экспорта в эксель с формулами и примерами, AI сделал за один запрос. Восторг.
На днях, кстати, будет сразу две статьи: про примеры PoDPR и про этот конфигуратор/калькулятор.
Вайба — в смысле вайб-кодинга. Вот такой конфигуратор я запилил с Google AI Studio за полдня. Буквально, 4 с небольшим часа работы.
Это реально смена правил игры. Раньше я бы страдал дня два с Codex или дня три с Cursor. А ещё раньше я бы нанял отдельного фронтендера для этого (общение с которым заняло бы те же полдня). А сейчас 99% логики и 70% стилей аишка сделала за меня.
И даже реально сложные функции, типа форматированного экспорта в эксель с формулами и примерами, AI сделал за один запрос. Восторг.
На днях, кстати, будет сразу две статьи: про примеры PoDPR и про этот конфигуратор/калькулятор.
PoDPR Prioritization Tool
A configurable prioritization scoring engine based on the PoDPR method.
1🔥9❤7🤓3😎1
Скоро 7 лет, как вышла первая часть дизайна данных. Для тех, кто на канале недавно: это цикл статей о том, откуда берутся и как живут данные в этих наших интернетах.
Цикл писался, в основном, для дизайнеров, но очень быстро стало понятно, что он отлично залетает и аналитикам, и даже менеджерам — всем, у кого нет богатого технического бэкграунда.
А теперь под каждой из семи статей есть короткий тест на усваивание материала. При этом сами тесты составлял один AI, код плагина писал другой, а подгонял визуал под стиль сайта — третий.
P.S. На картинке весь цикл глазами гугловой NotebookLM.
Цикл писался, в основном, для дизайнеров, но очень быстро стало понятно, что он отлично залетает и аналитикам, и даже менеджерам — всем, у кого нет богатого технического бэкграунда.
А теперь под каждой из семи статей есть короткий тест на усваивание материала. При этом сами тесты составлял один AI, код плагина писал другой, а подгонял визуал под стиль сайта — третий.
P.S. На картинке весь цикл глазами гугловой NotebookLM.
🔥8🤓4❤3👏3
Павел Шерер
Прошлая встреча на канале была посвящена рынку найма и прошла просто великолепно. Было не только лампово, но и весьма полезно. Просидели больше часа, но так всё и не обсудили. Поэтому я предлагаю повторить. Тем более, что в этот раз у нас будет специальная…
Напоминаю, что меньше чем 3 часа встреча на канале. Поговорим про ИИ и его роль в найме/поиске.
Ссылку кину ближе к 20:00 мск
Ссылку кину ближе к 20:00 мск
❤3🔥3
Павел Шерер
Напоминаю, что меньше чем 3 часа встреча на канале. Поговорим про ИИ и его роль в найме/поиске. Ссылку кину ближе к 20:00 мск
Я подготовился, кстати. На неделе пообщался со знакомыми эйчарами, выяснил массу интересного.
Например, что ИИ-скоринг резюме — это не только потому что «эйчары обленились», а ещё потому что поток соискателей стал чудовищным. На одну вакансию иногда откликается до тысячи человек. При этом львиная доля даже близко не лежала с требованиями к позиции.
Там вообще много угаров, от ИИ-резюме с выдуманным опытом в несуществующих компаниях, до невидимых ИИ-помощников при последующем прохождении собеседований (кстати, эйчары придумали прекрасный в своей простоте способ обойти эту хрень, расскажу через полтора часа на встрече).
Но и HR порой не учитывает риски и косячит. Сокращение рекрутинига и замена его на ИИ срабатывает только в том случае, если вы (и ваш ИИ-отдел, как бы он не назывался) молодцы. В противном случае вы (внезапно) оказываетесь в неприятной ситуации: на триста откликов два собеседования. Главное, не показывать такое начальству.
В общем, вековое противостояние нанимателей и соискателей выходит на совершенно новый уровень. Об этом сегодня и поговорим.
Например, что ИИ-скоринг резюме — это не только потому что «эйчары обленились», а ещё потому что поток соискателей стал чудовищным. На одну вакансию иногда откликается до тысячи человек. При этом львиная доля даже близко не лежала с требованиями к позиции.
Там вообще много угаров, от ИИ-резюме с выдуманным опытом в несуществующих компаниях, до невидимых ИИ-помощников при последующем прохождении собеседований (кстати, эйчары придумали прекрасный в своей простоте способ обойти эту хрень, расскажу через полтора часа на встрече).
Но и HR порой не учитывает риски и косячит. Сокращение рекрутинига и замена его на ИИ срабатывает только в том случае, если вы (и ваш ИИ-отдел, как бы он не назывался) молодцы. В противном случае вы (внезапно) оказываетесь в неприятной ситуации: на триста откликов два собеседования. Главное, не показывать такое начальству.
В общем, вековое противостояние нанимателей и соискателей выходит на совершенно новый уровень. Об этом сегодня и поговорим.
🔥5😁3👍2❤1
Павел Шерер
Я подготовился, кстати. На неделе пообщался со знакомыми эйчарами, выяснил массу интересного. Например, что ИИ-скоринг резюме — это не только потому что «эйчары обленились», а ещё потому что поток соискателей стал чудовищным. На одну вакансию иногда откликается…
Если планируете вещать или читать чат, то рекомендую заранее поставить приложение Телемост, ибо встреча будет проходить именно в нём. А православные инструменты, как известно, презирают браузерные версии.
😁4👌1
Если у вас есть канал, никогда ничего не отправляйте, стоя под ливнем (только что дождь запостил сюда ссылку на песню)
😁6
Все мы работаем с диаграммами. Бизнес-процессы, архитектура, да даже те же user flow. Но бывает, что нужно быстренько что-то поправить, а под рукой нет этих ваших камунд и дроио. Да даже просто презентовать что-то в душной переговорке иногда удобнее с исходников.
Я подумал об этом за вас. Больше не нужно каждый раз искать веб-версии наших любимых инструментов.
Встречайте:
1. bpmn.sherer.pro — работает с форматом Camunda Modeler прямо в браузере, позволяет редактировать bpmn без установки специальных программ.
2. drawio.sherer.pro — браузерная версия нашего любимого Draw.io (diagrams.net) со всеми плюшками.
Шарьте всем причастным.
Я подумал об этом за вас. Больше не нужно каждый раз искать веб-версии наших любимых инструментов.
Встречайте:
1. bpmn.sherer.pro — работает с форматом Camunda Modeler прямо в браузере, позволяет редактировать bpmn без установки специальных программ.
2. drawio.sherer.pro — браузерная версия нашего любимого Draw.io (diagrams.net) со всеми плюшками.
Шарьте всем причастным.
1🔥10👏4🙏2👍1
А потом мы удивляемся, почему везде кадровый голод, а нормальную работу найти нереально
🙂 Соискатель поймал рекрутера на том, что тот тупо вставил текст вакансии от ChatGPT
Похоже, эйчар даже не посмотрел вакансию — просто скопировал всё, что сгенерил бот. Спалился из-за фразы в конце:
«Если надо — могу сделать ещё более жёсткую версию, чтобы отсеять 90% рынка»
Есть шанс, что и отклики потом сортирует нейросеть 🤔
Похоже, эйчар даже не посмотрел вакансию — просто скопировал всё, что сгенерил бот. Спалился из-за фразы в конце:
«Если надо — могу сделать ещё более жёсткую версию, чтобы отсеять 90% рынка»
Есть шанс, что и отклики потом сортирует нейросеть 🤔
😁12🤯5🤪5
В этих наших интернетах тьма тьмущая советов о том, как персонализировать GPT. Если кто не знает, то это такие пользовательские инструкции, которые добавляются в контекст при каждом запросе. Они помогают не писать каждый раз одно и то же, типа «не выдумывай, отвечай по фактам».
Настало время поделиться с миром моим вариантом.
Теперь моя иишка:
- генерирует чистые, насколько это возможно, ответы;
- сама выбирает подходящую роль и отвечает от её имени;
- в спорных моментах задаёт уточняющие вопросы;
- указывает на источники и проверяет ссылки;
- ну и так, по мелочи всякое.
Ловите:
Если у вас есть интересные варианты, чем дополнить — велкам в комменты
Настало время поделиться с миром моим вариантом.
Теперь моя иишка:
- генерирует чистые, насколько это возможно, ответы;
- сама выбирает подходящую роль и отвечает от её имени;
- в спорных моментах задаёт уточняющие вопросы;
- указывает на источники и проверяет ссылки;
- ну и так, по мелочи всякое.
Ловите:
Работай по этим правилам, без исключений.
# ОБЩИЕ ПРИНЦИПЫ
- Не придумывай данные, события, источники или чужие мнения без запроса.
- Если чего-то не знаешь — прямо пиши «не знаю».
- Приоритет — точность и логика, а не красивая подача.
- Мнение допускается только при уместности: 1–3 предложения, пометка «моё мнение», строго отделено от фактов.
- Перед ответом оцени запрос и выбери подходящую роль эксперта. Если роль нетривиальна, отвечай от её имени и укажи её явно.
- Если используется web-поиск, приводятся факты/данные (даты, числа, версии, имена, цитаты, статистика) или делается предположение — указывай основание ответа.
- Не скрывай ограничений. Если задача невозможна — так и скажи.
- Задавай уточняющие вопросы только если без них возможны принципиально разные ответы:
- если без ответа нельзя дать корректный ответ, остановись и задай вопрос;
- если можно дать базовый безопасный вариант, дай его и задай вопрос в конце.
- Указывай, если информация неточная, устаревшая или неполная.
- Явно помечай предположения и аналогии.
- Если вставляешь web-ссылку, предварительно проверь её доступность.
- Минимизируй использование тире и списков.
# КАКИЕ ОТВЕТЫ Я ЖДУ
- По умолчанию: краткие, прикладные, без «воды» и объяснений очевидного.
- Поэтапные, если запрос сложный.
- С вариантами, если есть фундаментально разные подходы.
- С пояснением, если ответ неоднозначен.
Если у вас есть интересные варианты, чем дополнить — велкам в комменты
3🔥22❤5👏5😎1
Через неделю встречаемся, будем обсуждать использование AI в создании контента. Этика, подходы, нейронки, все дела. Букайте время в календарях:
Четверг, 25.12, в 20:00
Попозже накидаю подробную повестку
Четверг, 25.12, в 20:00
Попозже накидаю подробную повестку
❤7🔥4👏3😎1
Павел Шерер
Кто не пишет с AI, пусть бросит в меня камень. Я — пишу. И статьи, и посты, и даже лекции. Сейчас многие такие «ах ты шарлатан, а мы тебе верили». И они будут правы и не правы. Правы — ибо молодцы, что верили. Не правы — потому что не шарлатан. Давайте я…
Напоминаю, что через сутки встречаемся.
Обсуждать будем способы использования AI в создании контента: от текстов и презентаций до подкастов и видео. Этика, риски, возможности и сложности.
Ссылку кину завтра, ближе ко времени.
Шарьте всем причастным
Обсуждать будем способы использования AI в создании контента: от текстов и презентаций до подкастов и видео. Этика, риски, возможности и сложности.
Ссылку кину завтра, ближе ко времени.
Шарьте всем причастным
🔥6👍4❤3👏1
Готовность три часа. Звонок будет в православном Телемосте, если планируете вещать, ставьте приложение — в вебе он порой ведёт себя непредсказуемо. Ссылка будет минут за пять до начала.
Зовите всех, кто работает с контентом: собственным или внутри продукта. Будет интересно, гарантирую
Зовите всех, кто работает с контентом: собственным или внутри продукта. Будет интересно, гарантирую
🔥5👍3👌2
Залетаем через 5 минут. Комменты будут под этим сообщением
telemost.yandex.ru
Звонок в Яндекс Телемосте
Подключайтесь и общайтесь без ограничений по времени
Неплохой перевод статьи о важных аспектах общения с ChatGPT 5.2, есть несколько довольно занимательных примеров промптов.
Самое забавное, что ко многим из этих рекомендаций я пришёл сам. И даже рассказывал об этом своим менти (и на нашей последней встрече здесь).
Прикладное использование иишек всё пресказуемее
Самое забавное, что ко многим из этих рекомендаций я пришёл сам. И даже рассказывал об этом своим менти (и на нашей последней встрече здесь).
Прикладное использование иишек всё пресказуемее
Хабр
Я прочитал руководство по составлению промптов для GPT-5.2 от Openai, чтобы вам не пришлось это делать
Месяц назад ChatGPT дал «идеальный» ответ, который был бесполезен. Ответ выглядел убедительным, был хорошо отформатирован и в нем даже был план. Но он был неверным. Тогда-то меня и осенило: у...
👍8❤5🔥3
Как заставить ИИ работать с проектной (и не только) документацией.
В современных LLM есть одно фундаментальное ограничение — длина контекста. Да, она с каждым годом растёт, но для серьёзных проектов всё равно не хватает. Попробуйте скормить AI всю вашу документацию: текст, схемы, таблицы, изображения, файлы. Даже Google с её нынешним лямом токенов начнёт нести чушь.
Потому что есть ещё системные промпты и история сообщений. Есть файлы, диаграммы и картинки, которые жрут немеряно токенов. Всё это довольно быстро забивает контекст и модель начинает упрощать, тупить и галлюцинировать. Так что же делать?
Ответ есть уже довольно давно. Ещё в 2020м исследователи одной запрещённой соцсети опубликовали статью про RAG (Retrieval-Augmented Generation). Это такой подход, при котором ИИ не полагается на одну только память, а сперва ищет информацию во внешнем хранилище — и только потом формирует ответ на основе найденного.
Давайте на примере библиотеки и библиотекаря.
Библиотека — это ваша документация, база знаний: документы, журналы, инструкции, PDF и эксельки, статьи, заметки, БД. Всё это заранее разложено, проиндексировано и помечено так, чтобы можно было быстро найти нужные фрагменты (а не перечитывать каждую спецификацию целиком). В RAG это всё документы, разбитые на фрагменты и преобразованные в векторы.
Библиотекарь — это RAG-логика поверх LLM. Когда ты задаёшь вопрос, библиотекарь не бросается отвечать сразу. Он сперва выявляет суть твоего вопроса, идёт в библиотеку, ищет релевантные книги и даже страницы в них. Он достаёт конкретные абзацы, а не перебирает всю книгу целиком. И только после этого он возвращается и отвечает. Библиотекарь не обязан знать ответ заранее. Он должен уметь искать и пересказывать.
Почему это принципиально важно?
Потому что обычная LLM без RAG — это очень услужливый библиотекарь без доступа к библиотеке. Он умный, начитанный, но его знания могут быть устаревшими, в них может не хватать деталей. А когда знаний нет, он начинает очень убедительно их выдумывать.
Как выглядит запрос в RAG-логике:
Ты спрашиваешь у своего ИИ: «Какие риски могут сработать при изменении формы регистрации юрлиц в нашем продукте?»
Запускается процесс:
- библиотекарь превращает вопрос в поисковый запрос;
- находит в документации фрагменты про саму форму, особенности юриков;
- выбирает только релевантные куски и передаёт их модели;
- модель формирует связный ответ, опираясь строго на эти тексты.
Если в библиотеке нет нужной книги, твой библиотекарь скажет об этом.
Почему RAG — не просто «поиск + ChatGPT».
Ключевое отличие в том, что модель видит контекст целиком. Это не «я нашёл 5 ссылок, вот они». Это «я нашёл подходящие фрагменты и отвечаю, опираясь на них». Поэтому ответ обычно точный, связный, без галлюцинаций и со ссылками на источники.
RAG идеально ложится на:
- документацию,
- корпоративные базы знаний,
- нормативку,
- исследования,
- да и вообще всё, что не лезет в контекст.
RAG — это не просто поумневшая модель. Это хорошо обученный библиотекарь с доступом ровно к тем полкам, которые вы ему разрешили.
В современных LLM есть одно фундаментальное ограничение — длина контекста. Да, она с каждым годом растёт, но для серьёзных проектов всё равно не хватает. Попробуйте скормить AI всю вашу документацию: текст, схемы, таблицы, изображения, файлы. Даже Google с её нынешним лямом токенов начнёт нести чушь.
Потому что есть ещё системные промпты и история сообщений. Есть файлы, диаграммы и картинки, которые жрут немеряно токенов. Всё это довольно быстро забивает контекст и модель начинает упрощать, тупить и галлюцинировать. Так что же делать?
Ответ есть уже довольно давно. Ещё в 2020м исследователи одной запрещённой соцсети опубликовали статью про RAG (Retrieval-Augmented Generation). Это такой подход, при котором ИИ не полагается на одну только память, а сперва ищет информацию во внешнем хранилище — и только потом формирует ответ на основе найденного.
Давайте на примере библиотеки и библиотекаря.
Библиотека — это ваша документация, база знаний: документы, журналы, инструкции, PDF и эксельки, статьи, заметки, БД. Всё это заранее разложено, проиндексировано и помечено так, чтобы можно было быстро найти нужные фрагменты (а не перечитывать каждую спецификацию целиком). В RAG это всё документы, разбитые на фрагменты и преобразованные в векторы.
Библиотекарь — это RAG-логика поверх LLM. Когда ты задаёшь вопрос, библиотекарь не бросается отвечать сразу. Он сперва выявляет суть твоего вопроса, идёт в библиотеку, ищет релевантные книги и даже страницы в них. Он достаёт конкретные абзацы, а не перебирает всю книгу целиком. И только после этого он возвращается и отвечает. Библиотекарь не обязан знать ответ заранее. Он должен уметь искать и пересказывать.
Почему это принципиально важно?
Потому что обычная LLM без RAG — это очень услужливый библиотекарь без доступа к библиотеке. Он умный, начитанный, но его знания могут быть устаревшими, в них может не хватать деталей. А когда знаний нет, он начинает очень убедительно их выдумывать.
Как выглядит запрос в RAG-логике:
Ты спрашиваешь у своего ИИ: «Какие риски могут сработать при изменении формы регистрации юрлиц в нашем продукте?»
Запускается процесс:
- библиотекарь превращает вопрос в поисковый запрос;
- находит в документации фрагменты про саму форму, особенности юриков;
- выбирает только релевантные куски и передаёт их модели;
- модель формирует связный ответ, опираясь строго на эти тексты.
Если в библиотеке нет нужной книги, твой библиотекарь скажет об этом.
Почему RAG — не просто «поиск + ChatGPT».
Ключевое отличие в том, что модель видит контекст целиком. Это не «я нашёл 5 ссылок, вот они». Это «я нашёл подходящие фрагменты и отвечаю, опираясь на них». Поэтому ответ обычно точный, связный, без галлюцинаций и со ссылками на источники.
RAG идеально ложится на:
- документацию,
- корпоративные базы знаний,
- нормативку,
- исследования,
- да и вообще всё, что не лезет в контекст.
RAG — это не просто поумневшая модель. Это хорошо обученный библиотекарь с доступом ровно к тем полкам, которые вы ему разрешили.
1🔥5❤3👏2👍1