Claude Code как помощник у вас на компьютере
Claude Code часто подразумевается как среда для AI разработки, но использовать его можно для множества разных задач не связанных с разработкой или около того тематикой.
Я регулярно использую XCode для разработки приложений, а эта штука очень прожорливая и она генерирует огромное количество мусорного кеша на огромное количество гигабайт. Для регулярной очистки этого мусора у меня есть разные клинеры, но хорошие часто стоят больших денег с регулярными подписками, либо не умеют чистить много всякого.
Запускаем Claude Code и просим его “Хочу освободить место на диске, проанализируй и найди что можно удалить без проблем? Сколько места это освободит?”
После долгого анализа, клод код найдет много мусора у вас на диске и предложит все команды, можно попросить его выполнить, либо вручную, можно попросить объяснить более детально о каждых найденных данных, чтобы точно удостовериться, что это ненужный мусор у вас на диске.
В общем, Claude Code (и подобные CLI) можно использовать для огромного количества разнообразных задач. Все равно мы и так оплачиваем за него немалые деньги, поэтому не стоит себя ограничивать с ним😃
Claude Code часто подразумевается как среда для AI разработки, но использовать его можно для множества разных задач не связанных с разработкой или около того тематикой.
Я регулярно использую XCode для разработки приложений, а эта штука очень прожорливая и она генерирует огромное количество мусорного кеша на огромное количество гигабайт. Для регулярной очистки этого мусора у меня есть разные клинеры, но хорошие часто стоят больших денег с регулярными подписками, либо не умеют чистить много всякого.
Запускаем Claude Code и просим его “Хочу освободить место на диске, проанализируй и найди что можно удалить без проблем? Сколько места это освободит?”
После долгого анализа, клод код найдет много мусора у вас на диске и предложит все команды, можно попросить его выполнить, либо вручную, можно попросить объяснить более детально о каждых найденных данных, чтобы точно удостовериться, что это ненужный мусор у вас на диске.
В общем, Claude Code (и подобные CLI) можно использовать для огромного количества разнообразных задач. Все равно мы и так оплачиваем за него немалые деньги, поэтому не стоит себя ограничивать с ним
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍10❤3
OpenAI готовит рефералку в ChatGPT
В коде веб версии нашли упоминание вот такого экрана. Но ничего не сообщается, а что я получаю за приглашение трёх друзей😅 Мой то какой выхлоп от этой истории будет? Этого не указано (пока).
В коде веб версии нашли упоминание вот такого экрана. Но ничего не сообщается, а что я получаю за приглашение трёх друзей
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🤣6❤3👾1
Google анонсировала умные очки. Проект называется Project Aura
Google планирует запустить две новые категории очков. Первые будут без дисплея, чисто аудио версия, чтобы разговаривать с Gemini как с голосовым ассистентом. Вторые получат встроенный дисплей в линзе и смогут показывать навигацию и переводы, ну и видимо рекламу😅 Поставки стартуют в следующем году.
Очки будут на базе Android XR, операционная система для носимых устройств, которую Google представила, кажется, в прошлом году.
Учитывая, что у Google уже был провальный опыт с Google Glasses из которого они вынесли много уроков, учитывая все успехи Google в AI, учитывая, что Цук в гонке со своими умными очками, учитывая, что Альтман и Джони Айв тоже разрабатывают какое-то AI устройство, в 2026 год ожидаем тренд в носимых AI-устройствах.
А еще учитывая, что Цук недавно купил компанию Limitless (AI диктофон, продажи остановлены, и не завидую их текущим владельцам), следующий год явно будет посвящен смещению фокуса на AI-устройства.
Google планирует запустить две новые категории очков. Первые будут без дисплея, чисто аудио версия, чтобы разговаривать с Gemini как с голосовым ассистентом. Вторые получат встроенный дисплей в линзе и смогут показывать навигацию и переводы, ну и видимо рекламу
Очки будут на базе Android XR, операционная система для носимых устройств, которую Google представила, кажется, в прошлом году.
Учитывая, что у Google уже был провальный опыт с Google Glasses из которого они вынесли много уроков, учитывая все успехи Google в AI, учитывая, что Цук в гонке со своими умными очками, учитывая, что Альтман и Джони Айв тоже разрабатывают какое-то AI устройство, в 2026 год ожидаем тренд в носимых AI-устройствах.
А еще учитывая, что Цук недавно купил компанию Limitless (AI диктофон, продажи остановлены, и не завидую их текущим владельцам), следующий год явно будет посвящен смещению фокуса на AI-устройства.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12🔥7🤔3👍1🤣1
В Claude Code завезли прикольную стату о ваших тратах токенов
Вызывается командой /stats, но только в самом свежем Claude Code (обновитесь!)
Доступно 2 режима: обзор за 12 месяцев с общими данными и раздел Models с информацией за последние 30 дней с разбивкой трат токенов по моделям. Опять же не понятно, как он считает всю инфу в overview. Например, моя самая длинная сессия 3д 3ч и 12мин, но это видимо Warp удерживает сессию (или как оно считается, не понимаю). И мой самый длинный стрик 6 дней, тут вероятно ок, отдыхать тоже нужно на выходных😃
У меня: You've used ~43x more tokens than Harry Potter and the Philosopher's Stone (хм, хотя эта фраза каждый раз новая после захода в раздел Overview)
Показывайте свои скрины, найдем самого прожорливого среди нас😄
Вызывается командой /stats, но только в самом свежем Claude Code (обновитесь!)
Доступно 2 режима: обзор за 12 месяцев с общими данными и раздел Models с информацией за последние 30 дней с разбивкой трат токенов по моделям. Опять же не понятно, как он считает всю инфу в overview. Например, моя самая длинная сессия 3д 3ч и 12мин, но это видимо Warp удерживает сессию (или как оно считается, не понимаю). И мой самый длинный стрик 6 дней, тут вероятно ок, отдыхать тоже нужно на выходных
У меня: You've used ~43x more tokens than Harry Potter and the Philosopher's Stone (хм, хотя эта фраза каждый раз новая после захода в раздел Overview)
Показывайте свои скрины, найдем самого прожорливого среди нас
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥4
GPT-5.2 – когда “код красный” оправдал себя
OpenAI выпустила GPT-5.2. И если предыдущие обновления были скорее эволюцией, то здесь чувствуется попытка выровнять позицию компании на фоне Opus 4.5 и Gemini 3 Pro. Внутри OpenAI, по разным данным, действительно включали “code red” на полную катушку, так что релиз явно готовился с целью “войти в дверь с пинка”.
GPT-5.2 меньше спотыкается на длинных задачах, тянет больше контекста и лучше внимание на длинном контексте, “аккуратнее” работает с кодом и инструментами, и в целом ведёт себя стабильнее. Именно эта стабильность и важна, потому что она напрямую влияет на то как мы используем AI в своих рабочих процессах.
Теперь по порядку что изменилось:
– В задачах GDPval (это когда модель решает реальные рабочие кейсы вроде анализа документов, таблиц, презентаций) GPT-5.2 Thinking показывает результаты на уровне и выше человеческого эксперта.
– На AIME 2025 модель впервые дала 100% правильных решений без инструментов. У 5.1 было около 94%, так что прирост чувствуется. Это не про красивые циферки. GPT-5.2 значительно реже ошибается в многошаговых расчётах и строгой логике.
– Переходим к коду. Здесь значительный и важный скачок. На SWE-Bench Pro модель поднимается до 55.6%, а на SWE-bench Verified до 80%. Opus 4.5 пока незначительно опережает (80.9%), но Gemini 3 Pro остался позади со своими 76%.
– В тестах MRCRv2 (ищем “иголку” в длинном контексте) GPT-5.2 почти не ошибается. Для больших проектов это критично: можно загружать длинные документы, протоколы, спецификации и не переживать что модель потеряет нить.
– Визуальное понимание. Ошибки на графиках, диаграммах и интерфейсах уменьшились примерно вдвое. Если вы работаете с UI, аналитикой или комбинированными данными — модель перестала «путать» элементы и их логику.
– Инструменты и агенты. Точность tool-calling в длинных цепочках выросла до ~98.7% (было 95.6 % у GPT-5.1). В реальности это означает меньше провалов в середине цепочки и более предсказуемую работу при автоматизации. Можно строить более стабильные многошаговые сценарии.
– Режимы работы: Instant, Thinking и Pro, тут всё привычно.
– По сложному reasoning картина стала яснее после ARC-AGI-2. У GPT-5.1 там было 17.6 %, у GPT-5.2 — уже 52.9 %, а версия Pro поднимается до 54.2 %. Это выводит GPT-5.2 вперёд и Opus 4.5, и Gemini 3 Pro именно в абстрактных задачах рассуждений, где требуется нестандартная логика и многошаговые решения.
– Opus 4.5 остаётся одним из лучших в коде (но нужно еще пощупать, посравнивать с GPT-5.2, его уже завезли во все AI IDE). Gemini 3 Pro всё ещё силён в мультимодальности. Восприятие изображений, сложных визуальных структур и сценариев у Google работает очень уверенно.
– Стоимость: ценник на 5.2 немного подрос по сравнению с 5.1.
– Рынок в целом оценивает релиз положительно. Хотя было много скепсиса на счет возможностей OpenAI, но время покажет. Ждем теперь ответочку от конкурентов, и так по кругу.
Детали о релизе: https://openai.com/index/introducing-gpt-5-2/
OpenAI выпустила GPT-5.2. И если предыдущие обновления были скорее эволюцией, то здесь чувствуется попытка выровнять позицию компании на фоне Opus 4.5 и Gemini 3 Pro. Внутри OpenAI, по разным данным, действительно включали “code red” на полную катушку, так что релиз явно готовился с целью “войти в дверь с пинка”.
GPT-5.2 меньше спотыкается на длинных задачах, тянет больше контекста и лучше внимание на длинном контексте, “аккуратнее” работает с кодом и инструментами, и в целом ведёт себя стабильнее. Именно эта стабильность и важна, потому что она напрямую влияет на то как мы используем AI в своих рабочих процессах.
Теперь по порядку что изменилось:
– В задачах GDPval (это когда модель решает реальные рабочие кейсы вроде анализа документов, таблиц, презентаций) GPT-5.2 Thinking показывает результаты на уровне и выше человеческого эксперта.
– На AIME 2025 модель впервые дала 100% правильных решений без инструментов. У 5.1 было около 94%, так что прирост чувствуется. Это не про красивые циферки. GPT-5.2 значительно реже ошибается в многошаговых расчётах и строгой логике.
– Переходим к коду. Здесь значительный и важный скачок. На SWE-Bench Pro модель поднимается до 55.6%, а на SWE-bench Verified до 80%. Opus 4.5 пока незначительно опережает (80.9%), но Gemini 3 Pro остался позади со своими 76%.
– В тестах MRCRv2 (ищем “иголку” в длинном контексте) GPT-5.2 почти не ошибается. Для больших проектов это критично: можно загружать длинные документы, протоколы, спецификации и не переживать что модель потеряет нить.
– Визуальное понимание. Ошибки на графиках, диаграммах и интерфейсах уменьшились примерно вдвое. Если вы работаете с UI, аналитикой или комбинированными данными — модель перестала «путать» элементы и их логику.
– Инструменты и агенты. Точность tool-calling в длинных цепочках выросла до ~98.7% (было 95.6 % у GPT-5.1). В реальности это означает меньше провалов в середине цепочки и более предсказуемую работу при автоматизации. Можно строить более стабильные многошаговые сценарии.
– Режимы работы: Instant, Thinking и Pro, тут всё привычно.
– По сложному reasoning картина стала яснее после ARC-AGI-2. У GPT-5.1 там было 17.6 %, у GPT-5.2 — уже 52.9 %, а версия Pro поднимается до 54.2 %. Это выводит GPT-5.2 вперёд и Opus 4.5, и Gemini 3 Pro именно в абстрактных задачах рассуждений, где требуется нестандартная логика и многошаговые решения.
– Opus 4.5 остаётся одним из лучших в коде (но нужно еще пощупать, посравнивать с GPT-5.2, его уже завезли во все AI IDE). Gemini 3 Pro всё ещё силён в мультимодальности. Восприятие изображений, сложных визуальных структур и сценариев у Google работает очень уверенно.
– Стоимость: ценник на 5.2 немного подрос по сравнению с 5.1.
– Рынок в целом оценивает релиз положительно. Хотя было много скепсиса на счет возможностей OpenAI, но время покажет. Ждем теперь ответочку от конкурентов, и так по кругу.
Детали о релизе: https://openai.com/index/introducing-gpt-5-2/
🔥20❤10👍7🤣1
В новом Claude Code CLI теперь всегда на виду остаток контекста
Через слеш команду /statusline можно под себя настроить отображение всяких полезных показателей, но теперь можно добавить и отображение прогресс бара контекста!
Кстати, статусная строка реально настраивается легко, просто словами описываем в каком виде, какие цвета для каких данных, даже дизайн можно описать. Если еще не используете это, настоятельно советую, а теперь еще и заполненность контекста на виду.
Из прикольных настроек:
Можно попросить добавить погоду, или курс валюты/крипты, или помодоро таймер, чтобы не забывать отдыхать. Что из необычного вы себе добавляли? (если уже статусной строкой активно пользуетесь)
Вот это супер полезное обновление 🥰
Через слеш команду /statusline можно под себя настроить отображение всяких полезных показателей, но теперь можно добавить и отображение прогресс бара контекста!
Кстати, статусная строка реально настраивается легко, просто словами описываем в каком виде, какие цвета для каких данных, даже дизайн можно описать. Если еще не используете это, настоятельно советую, а теперь еще и заполненность контекста на виду.
Из прикольных настроек:
Можно попросить добавить погоду, или курс валюты/крипты, или помодоро таймер, чтобы не забывать отдыхать. Что из необычного вы себе добавляли? (если уже статусной строкой активно пользуетесь)
Вот это супер полезное обновление 🥰
❤14👍9🔥6
Я перепробовал почти все форматы девайсов которые помогают трекать тело: часы, кольца, браслеты. Трекал все: сон, пульс, шаги, нагрузку и кучу других показателей.
Но мой главный запрос остается нерешенным, хочется понять, каким образом возможно сбить тревожный шум и свести мой раздувшийся FOMO к нулю.
Недавно начал эксперимент с новым гаджетом, который должен помочь погрузиться в процессы мозговой деятелности глубже привычных показателей.
Пока не тороплюсь делать выводы, как только будут получены первые результаты обязательно поделюсь с вами.
Но мой главный запрос остается нерешенным, хочется понять, каким образом возможно сбить тревожный шум и свести мой раздувшийся FOMO к нулю.
Недавно начал эксперимент с новым гаджетом, который должен помочь погрузиться в процессы мозговой деятелности глубже привычных показателей.
Пока не тороплюсь делать выводы, как только будут получены первые результаты обязательно поделюсь с вами.
👍13🔥8❤3
А кто-нибудь в итоге пересел на браузер Atlas от OpenAI?
Они как будто бы подзабили на него после релиза. А смысл какой тогда был в нём? Я конечно ожидал большего внимания к нему со стороны создателей 😏
В итоге, ничего лучше Arc пока для себя не нашел как постоянного браузера на десктопе.
Они как будто бы подзабили на него после релиза. А смысл какой тогда был в нём? Я конечно ожидал большего внимания к нему со стороны создателей 😏
В итоге, ничего лучше Arc пока для себя не нашел как постоянного браузера на десктопе.
❤6👍4
В Твиттере в последние дни много пишут, что заметили как Opus 4.5 «отупел» и ему подрезали крылышки.
Кто-то даже готов отдавать $1к/мес за подписку, если модели будут всегда на максималках как после релизов.
Представители Anthropic в реплаях пишут, что они ничего не урезали и хотели бы разобраться что именно не так.
А вы заметили деградацию опуса в последние дни? Или всё норм и вайб на максималках? Я на своих задачах такого не заметил 🤔
Кто-то даже готов отдавать $1к/мес за подписку, если модели будут всегда на максималках как после релизов.
Представители Anthropic в реплаях пишут, что они ничего не урезали и хотели бы разобраться что именно не так.
А вы заметили деградацию опуса в последние дни? Или всё норм и вайб на максималках? Я на своих задачах такого не заметил 🤔
❤7🤔4
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустила новую модель для генерации изображений ChatGPT Images
TLDR: Обновление сильное если сравнивать предыдущую модель генерации изображений в ChatGPT, но если сравнивать с конкурентами, не удивляет.
Модель называется gpt-image-1.5
Что нового:
– Лучше следует инструкциям.
– Сохраняет детали при генерации детали.
– Можно указать области на фото, в которых нужно внести изменения. Например, если нужно что-то подредактировать точечно.
– Быстрее в 4х раза чем предыдущая модель.
– Доступно в API.
В целом, обновление давно напрашивалось. Изменения для генерации изображений в ChatGPT конечно сильно заметны, но в сравнении с моделями конкурентов, не уверен, что удалось их перепрыгнуть.
Полистал твиттеры, посмотрел арены (к моему удивлению, люди голосуют больше за gpt-image-1.5 чем нано банану). Мнения разделились. В общем, каждый решает сам и всё зависит от ваших запросов на генерацию (что вы от неё ожидаете). У части спецов это обновление не вызовет никаких эмоций, а для масс маркета обновление точно зайдет (те, кто сидит только в чатгпт).
P.S. Скину в комменты для примера генерации в chatgpt images и nano banana
TLDR: Обновление сильное если сравнивать предыдущую модель генерации изображений в ChatGPT, но если сравнивать с конкурентами, не удивляет.
Модель называется gpt-image-1.5
Что нового:
– Лучше следует инструкциям.
– Сохраняет детали при генерации детали.
– Можно указать области на фото, в которых нужно внести изменения. Например, если нужно что-то подредактировать точечно.
– Быстрее в 4х раза чем предыдущая модель.
– Доступно в API.
В целом, обновление давно напрашивалось. Изменения для генерации изображений в ChatGPT конечно сильно заметны, но в сравнении с моделями конкурентов, не уверен, что удалось их перепрыгнуть.
Полистал твиттеры, посмотрел арены (к моему удивлению, люди голосуют больше за gpt-image-1.5 чем нано банану). Мнения разделились. В общем, каждый решает сам и всё зависит от ваших запросов на генерацию (что вы от неё ожидаете). У части спецов это обновление не вызовет никаких эмоций, а для масс маркета обновление точно зайдет (те, кто сидит только в чатгпт).
P.S. Скину в комменты для примера генерации в chatgpt images и nano banana
❤8🔥3👍2🤔1
⚡Gemini 3.0 Flash
Шок! Модель на уровне Gemini 3.0 Pro (по MMMU-Pro), при этом быстрее и дешевле!
Как после таких релизов конкуренты перед новым годом могут оправиться? Гугл перекрывает любые релизы своими козырями.
Детали: https://blog.google/products/gemini/gemini-3-flash/
Шок! Модель на уровне Gemini 3.0 Pro (по MMMU-Pro), при этом быстрее и дешевле!
Как после таких релизов конкуренты перед новым годом могут оправиться? Гугл перекрывает любые релизы своими козырями.
Детали: https://blog.google/products/gemini/gemini-3-flash/
🔥18
Теперь, видимо, где-то на горизонте ждать Sonnet 4.7?
Или не в 2025? А то слухи разные ходят, вдруг удивят к праздникам!
Или не в 2025? А то слухи разные ходят, вдруг удивят к праздникам!
❤9
OpenAI выкатила свой App Store в ChatGPT
Приложения доступны в отдельном разделе Apps на вебе и в приложении. Пока в списках приложения крупных компаний, есть даже музыкальные стриминги, можно в чатике писать что хотелось бы послушать и он найдет нужные треки и включит. Забавно!
Apps были представлены еще в октябре. Информация по Apps SDK и как создать своё приложение для ChatGPT https://developers.openai.com/apps-sdk
Гайд как подключить монетизацию в приложениях: https://developers.openai.com/apps-sdk/build/monetization/
Приложения доступны в отдельном разделе Apps на вебе и в приложении. Пока в списках приложения крупных компаний, есть даже музыкальные стриминги, можно в чатике писать что хотелось бы послушать и он найдет нужные треки и включит. Забавно!
Apps были представлены еще в октябре. Информация по Apps SDK и как создать своё приложение для ChatGPT https://developers.openai.com/apps-sdk
Гайд как подключить монетизацию в приложениях: https://developers.openai.com/apps-sdk/build/monetization/
🔥14❤3👍2
Достала проблема мерцания в Claude Code CLI?
Все, кто использует Claude Code CLI не раз сталкивались, когда весь терминал начинает мерцать и не понятно, что там происходит. Бывало же?
Anthropic радостно сообщает, что они победили эту проблему (но не на 100%), но снизили на магические 85% частоту появления мерцания. Суть проблемы в том, что в терминалах даже при изменении небольшого элемента, приходится перерисовывать всю видимую область и еще область за скроллом. А так как Claude Code CLI генерирует много информции и область за скроллом постоянно растет, то перерисовывать приходится много всего. И это происходит много раз в секунду.
Они переписали свой рендер в терминале и теперь полная перерисовка будет происходит только когда действительно нужно, а в основном обновляться будут отдельные строки и элементы.
Детали можно прочитать тут: https://github.com/anthropics/claude-code/issues/769#issuecomment-3667315590
Все, кто использует Claude Code CLI не раз сталкивались, когда весь терминал начинает мерцать и не понятно, что там происходит. Бывало же?
Anthropic радостно сообщает, что они победили эту проблему (но не на 100%), но снизили на магические 85% частоту появления мерцания. Суть проблемы в том, что в терминалах даже при изменении небольшого элемента, приходится перерисовывать всю видимую область и еще область за скроллом. А так как Claude Code CLI генерирует много информции и область за скроллом постоянно растет, то перерисовывать приходится много всего. И это происходит много раз в секунду.
Они переписали свой рендер в терминале и теперь полная перерисовка будет происходит только когда действительно нужно, а в основном обновляться будут отдельные строки и элементы.
Детали можно прочитать тут: https://github.com/anthropics/claude-code/issues/769#issuecomment-3667315590
❤4🔥3👍2
Я думал, что умею расслабляться. Оказалось, нет!
На выходных наконец-то получил свой Mind Tracker от компании Neiry. Ощущение, что получил устройство из будущего! Мне кажется, это один из крутейших подарков для всех биохакеров и гиков перед новым годом, кто следит за своим здоровьем и менталкой. Оно считывает волны мозговой активности и на основе этих данных помогает вам работать со стрессом, тренировать концентрацию и фокус, и удивительно, что оно научит вас расслабляться!
Погнали! Распаковал, надел на голову, скачал приложение. Меня провели по шагам, где всё детально рассказали и показали, откалибровал датчики под себя. И тут же Mind Tracker выдал мне, что мой iAF 9.6-9.7 и что я “Креатор”! Прям в точку. Изучил, если простыми словами, этот параметр показывает как быстро мозг перерабатывает информацию.
В приложении есть короткие тренировки (10 минут в день), которые помогают бороться со стрессом, восстанавливаться и качать продуктивность. И вот тут было самое интересное для меня, я запустил первый тренинг, где нужно было с закрытыми глазами расслабиться. Если расслабление качественное, поют птички, если ваш мозг что-то волнует и расслабиться не получается, включаются звуки улицы. И вам нужно стараться поймать это расслабление и очистить свои мысли. Оказалось, расслабляться сложно. Буду дальше учиться.
А в режиме трекинга, устройство постоянно отслеживает ваши показатели и следит за качеством вашей концентрации и фокусом, и определяет моменты, когда ваше внимание поплыло. Забавное, что в этот момент начинают петь птички! Классная фишка!
Эксперимент продолжается. Дальше буду следить, как это влияет на уровень моей тревожности, качество сна и тот самый раздувшийся FOMO. Но то, что я уже вижу сейчас, и сами тренинги, которые честно показывают, что я не умею расслабляться по щелчку, это прям сильный инсайт для меня. Буду продолжать.
Кстати, сейчас Mind Tracker по моему промокоду aivolution доступен со скидкой 40%. Если ищете научные способы борьбы со стрессом, восстановления и продуктивности, кажется, хороший момент попробовать. Ссылка: https://clc.to/15kFYA
На выходных наконец-то получил свой Mind Tracker от компании Neiry. Ощущение, что получил устройство из будущего! Мне кажется, это один из крутейших подарков для всех биохакеров и гиков перед новым годом, кто следит за своим здоровьем и менталкой. Оно считывает волны мозговой активности и на основе этих данных помогает вам работать со стрессом, тренировать концентрацию и фокус, и удивительно, что оно научит вас расслабляться!
Погнали! Распаковал, надел на голову, скачал приложение. Меня провели по шагам, где всё детально рассказали и показали, откалибровал датчики под себя. И тут же Mind Tracker выдал мне, что мой iAF 9.6-9.7 и что я “Креатор”! Прям в точку. Изучил, если простыми словами, этот параметр показывает как быстро мозг перерабатывает информацию.
В приложении есть короткие тренировки (10 минут в день), которые помогают бороться со стрессом, восстанавливаться и качать продуктивность. И вот тут было самое интересное для меня, я запустил первый тренинг, где нужно было с закрытыми глазами расслабиться. Если расслабление качественное, поют птички, если ваш мозг что-то волнует и расслабиться не получается, включаются звуки улицы. И вам нужно стараться поймать это расслабление и очистить свои мысли. Оказалось, расслабляться сложно. Буду дальше учиться.
А в режиме трекинга, устройство постоянно отслеживает ваши показатели и следит за качеством вашей концентрации и фокусом, и определяет моменты, когда ваше внимание поплыло. Забавное, что в этот момент начинают петь птички! Классная фишка!
Эксперимент продолжается. Дальше буду следить, как это влияет на уровень моей тревожности, качество сна и тот самый раздувшийся FOMO. Но то, что я уже вижу сейчас, и сами тренинги, которые честно показывают, что я не умею расслабляться по щелчку, это прям сильный инсайт для меня. Буду продолжать.
Кстати, сейчас Mind Tracker по моему промокоду aivolution доступен со скидкой 40%. Если ищете научные способы борьбы со стрессом, восстановления и продуктивности, кажется, хороший момент попробовать. Ссылка: https://clc.to/15kFYA
👍8🔥6🤣5🤔2