Please open Telegram to view this post
VIEW IN TELEGRAM
❤15❤🔥4👍4
Начинаем новое важное путешествие 👨🚀
🚪 Этот пост открывает серию материалов, где мы пошагово разберём весь процесс создания нейросети — от идеи до рабочего продукта. Постараюсь все излагать техническим, но в то же время понятным русским языком.
Я думаю, что не меня одного будоражит эта тема. Мне хочется разобраться в ней глубже, понять внутрянку. Я подумал, что круто будет сделать это нам здесь всем вместе❤️ ❤️ ❤️
Меня радует то, что сейчас, в 2025 году, можно сделать нейронку без огромных финансовых вложений благодаря готовым решениям. Не нужно обучать модель с нуля — можно взять предобученную (например, BERT для понимания текста или GPT для генерации) и доучить её под свою задачу. Это экономит месяцы работы. Но также требует определенного уровня знаний. Поэтому предупреждаю, просто не будет никому (ни мне, ни вам😭 ). В доказательство этому читайте текст ниже.
💪 Первый кирпичик — данные.
Нейросети учатся на примерах, как студенты по учебникам. Для простых задач классификации нужно 10-50 тысяч примеров, для сложных — миллионы. Главное — качество и разнообразие данных. Необходимо убирать дубли, исправлять ошибки, следить за балансом классов. Если нужна разметка (например, для определения тональности текста), используйте инструменты вроде Label Studio или обращайтесь к краудсорсингу.
💪 Второй кирпичик — архитектура модели.
Это "мозг" нейросети. Сегодня доминируют Transformer-архитектуры — они хорошо работают с текстом, изображениями и другими данными. Не изобретайте велосипед: возьмите готовую модель с Hugging Face (там тысячи вариантов) и адаптируйте под задачу. Для экономии ресурсов присмотритесь к "маленьким" моделям вроде DistilBERT — они работают быстрее и требуют меньше памяти.
💪 Третий кирпичик — вычислительные ресурсы.
Нейросети требуют мощных видеокарт (GPU) для обучения. Варианты: арендовать в облаке (от 10 до 2000 зеленых в месяц, все зависит от сложности проекта) или купить RTX 4080/4090 для домашнего использования. Современные "компактные" модели могут работать даже на MacBook с чипом M3. Поэтому сделать домашнюю нейронку вполне реально.
💪 Четвёртый кирпичик — процесс обучения.
Используйте готовые фреймворки вроде PyTorch или TensorFlow — они автоматизируют большую часть работы. Типичный процесс: загрузили данные, выбрали предобученную модель, настроили параметры обучения (learning rate, batch size), запустили fine-tuning. Следите за метриками в реальном времени с помощью Weights & Biases или TensorBoard (ставь лайк, если пока тоже ниче непонятно).
💪 Пятый кирпичик — оценка результатов.
Проверяйте модель на новых данных, которые она не видела при обучении. Для классификации смотрите на accuracy и F1-score, для генерации текста — на perplexity. Важно понимать, где модель ошибается и почему. Используйте инструменты объяснимости (SHAP, LIME), чтобы понять логику решений модели.
💪 Шестой кирпичик — развёртывание.
Готовую модель нужно сделать доступной пользователям. Простейший вариант — Hugging Face Inference API (несколько кликов). Для большего контроля используйте FastAPI + Docker. Не забывайте про мониторинг, следите за производительностью и качеством предсказаний, обновляйте модель по мере поступления новых данных.
Если Вы дочитали до сюда и Вам интересно во всем этом разобраться, то добро пожаловать. Я буду только рад, если Вам это также вкатывает как и мне. Когда с этим справимся, полезем глубже🐱 .
Мне самому немного страшно браться за такое большое и сложное начинание, но усердие и труд все перетрут, так что погнали (посты серии будут с этим тегом #СтроимИИ🤨 ).
Всем удачи! Очень рад, что сообщество растет и мы с вами тоже, дорогие❤️
Я думаю, что не меня одного будоражит эта тема. Мне хочется разобраться в ней глубже, понять внутрянку. Я подумал, что круто будет сделать это нам здесь всем вместе
Меня радует то, что сейчас, в 2025 году, можно сделать нейронку без огромных финансовых вложений благодаря готовым решениям. Не нужно обучать модель с нуля — можно взять предобученную (например, BERT для понимания текста или GPT для генерации) и доучить её под свою задачу. Это экономит месяцы работы. Но также требует определенного уровня знаний. Поэтому предупреждаю, просто не будет никому (ни мне, ни вам
Нейросети учатся на примерах, как студенты по учебникам. Для простых задач классификации нужно 10-50 тысяч примеров, для сложных — миллионы. Главное — качество и разнообразие данных. Необходимо убирать дубли, исправлять ошибки, следить за балансом классов. Если нужна разметка (например, для определения тональности текста), используйте инструменты вроде Label Studio или обращайтесь к краудсорсингу.
Это "мозг" нейросети. Сегодня доминируют Transformer-архитектуры — они хорошо работают с текстом, изображениями и другими данными. Не изобретайте велосипед: возьмите готовую модель с Hugging Face (там тысячи вариантов) и адаптируйте под задачу. Для экономии ресурсов присмотритесь к "маленьким" моделям вроде DistilBERT — они работают быстрее и требуют меньше памяти.
Нейросети требуют мощных видеокарт (GPU) для обучения. Варианты: арендовать в облаке (от 10 до 2000 зеленых в месяц, все зависит от сложности проекта) или купить RTX 4080/4090 для домашнего использования. Современные "компактные" модели могут работать даже на MacBook с чипом M3. Поэтому сделать домашнюю нейронку вполне реально.
Используйте готовые фреймворки вроде PyTorch или TensorFlow — они автоматизируют большую часть работы. Типичный процесс: загрузили данные, выбрали предобученную модель, настроили параметры обучения (learning rate, batch size), запустили fine-tuning. Следите за метриками в реальном времени с помощью Weights & Biases или TensorBoard (ставь лайк, если пока тоже ниче непонятно).
Проверяйте модель на новых данных, которые она не видела при обучении. Для классификации смотрите на accuracy и F1-score, для генерации текста — на perplexity. Важно понимать, где модель ошибается и почему. Используйте инструменты объяснимости (SHAP, LIME), чтобы понять логику решений модели.
Готовую модель нужно сделать доступной пользователям. Простейший вариант — Hugging Face Inference API (несколько кликов). Для большего контроля используйте FastAPI + Docker. Не забывайте про мониторинг, следите за производительностью и качеством предсказаний, обновляйте модель по мере поступления новых данных.
Если Вы дочитали до сюда и Вам интересно во всем этом разобраться, то добро пожаловать. Я буду только рад, если Вам это также вкатывает как и мне. Когда с этим справимся, полезем глубже
Мне самому немного страшно браться за такое большое и сложное начинание, но усердие и труд все перетрут, так что погнали (посты серии будут с этим тегом #СтроимИИ
Всем удачи! Очень рад, что сообщество растет и мы с вами тоже, дорогие
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21👍9❤🔥4🔥3🤯2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥3🥰2
Да что такое ваш АПИ?! ❔
API (Application Programming Interface) — это невидимый мост🔨 , соединяющий разные программы и сервисы, позволяя им болтать друг с другом без участия человека. Представьте себе официанта в ресторане 🍷 : Вы выбираете блюдо из меню, он передаёт заказ на кухню и приносит готовое угощение 🐟 . В нашей цифровой “кухне” меню — это документация API, запросы и ответы — те самые блюда, а HTTP‑протокол выступает в роли официанта.
Корни API уходят в первые операционные системы 1960–70‑х годов, когда программисты впервые получили набор функций для работы с файлами и устройствами🖥 . Но настоящий взлёт пришёл с вебом и публикацией в 2000 году диссертации Роя Филдинга, описавшей стиль REST. С тех пор RESTful API, использующие методы GET, POST, PUT и DELETE, стали стандартом для обмена данными в формате JSON и XML.
Почему API так важны? Во‑первых, они обеспечивают модульность и переиспользование. Так, написав интерфейс один раз, вы открываете его десяткам клиентов — мобильным приложениям😶 , веб‑сайтами 😶 , микросервисам 😶 — без лишнего дублирования кода. Во‑вторых, API дарят автоматизацию. Роботы и скрипты способны запускать процессы по расписанию — от публикации постов в социальных сетях до управления умным домом, избавляя Вас от жеской рутины. В‑третьих, вокруг API выстраивается целая экономика — корпорации вроде Twitter, ой, X ❌ , Google и Amazon продают доступ к своим данным и вычислительным ресурсам, а стартапы создают уникальные интеграции и расширения, превращая интерфейсы в самостоятельный источник дохода.
Сейчас такие мосты соединяют нас не только с классическими API🙂 , но и с самыми продвинутыми нейросетями. Представьте, что Вы ведёте бизнес. А значит, находитесь в среде, где каждый день идёт борьба за внимание, ресурсы и время. Скорость становится конкурентным преимуществом: тот, кто быстрее запускает продукт, тестирует идеи или отвечает клиентам, выигрывает. Здесь на сцену выходит нейросетевой конструктор — простая оболочка над мощными ИИ-моделями вроде GPT‑4. Вместо того чтобы вручную формулировать запросы, настраивать параметры и копировать ответы, Вы просто выбираете нужную задачу — «написать письмо», «сформировать отчёт», «обработать отзыв» — и вводите ключевые данные. Всё остальное происходит автоматически: система сама формирует запрос, запускает ИИ, получает результат и сразу отправляет его в нужный инструмент — CRM, документы, рассылку. Все ускоряется, ребята, не знаю хорошо это или плохо 😐 .
Всем неторопливых выходных. Спасибо Вам💘
API (Application Programming Interface) — это невидимый мост
Корни API уходят в первые операционные системы 1960–70‑х годов, когда программисты впервые получили набор функций для работы с файлами и устройствами
Почему API так важны? Во‑первых, они обеспечивают модульность и переиспользование. Так, написав интерфейс один раз, вы открываете его десяткам клиентов — мобильным приложениям
Сейчас такие мосты соединяют нас не только с классическими API
Всем неторопливых выходных. Спасибо Вам
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥5❤🔥3👾2✍1👍1🤝1
Всем привет! 🐱
Я сегодня долго спал и собирал клубнику с красной смородиной🌸 . А как у Вас суббота? Если вы тоже в шоке от того, как быстро летят выходные ставьте лайк ❤️ .
Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу Ваш канал в публикации🥰 . Вот такой вот интерактив придумал буквально сейчас, пока писал этот текст.
Подсказка: будет #код_вселенной (одна из любимых моих рубрик)👨🚀
Если хотите меня поддержать, делитесь этим каналом. Мне будет очень приятно. Всем любви и теплого лета, обнимаю каждого❤️ ❤️
Я сегодня долго спал и собирал клубнику с красной смородиной
Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу Ваш канал в публикации
Подсказка: будет #код_вселенной (одна из любимых моих рубрик)
Если хотите меня поддержать, делитесь этим каналом. Мне будет очень приятно. Всем любви и теплого лета, обнимаю каждого
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18❤🔥3👍2🔥2
Теория хаоса: эффект бабочки и предсказуемость вселенной 🦋
Когда речь заходит про этот эффект, часто говорят про бабочку и ураган. Звучит это примерно так: может ли взмах крыльев бабочки в Москве вызвать торнадо в Техасе (на самом деле бабочка тут неспроста, читайте до конца)? Об этом можно пофантазировать, представить, что все в нашей жизни связано, а каждое, даже самое незначительное действие, запускает каскад других, которые могут вылиться в нечто большее❕ . После таких размышлений складывается ощущение, что действительно, тот вклад бабочки в формирование воздушных потоков может повлиять на прогноз погоды в другой части света. Почему нет? - Тем более мы с Вами уже знаем про явление эмерджентности — когда множество простого порождает нечто сложное 🧑🏫 .
Я подумал, если наша вселенная — симуляция, можно ли написать достоверный прогноз погоды на месяц вперед? Или предсказать другие, более простые вещи. Например, я бросаю мяч🐱 . Зная его начальную скорость, угол броска, сопротивление воздуха, я могу предсказать куда он приземлится, верно? Оказывается невсегда. Теория хаоса объясняет, почему иногда невозможно предсказать даже то, что полностью подчиняется четким законам физики 🐱 .
🐝 В 1960-х годах метеоролог Эдвард Лоренц обнаружил удивительное явление. Округлив значение в расчетах с 0.506127 до 0.506, он получил совершенно другие результаты при повторном запуске модели атмосферы. Так родилась концепция "чувствительной зависимости от начальных условий" — эффект бабочки (математически будет очень красиво).
Лоренц описал своё открытие системой трех дифференциальных уравнений:
dx/dt = σ(y - x)
dy/dt = x(ρ - z) - y
dz/dt = xy - βz
При определенных значениях параметров (σ = 10, ρ = 28, β = 8/3) система демонстрирует хаотическое поведение, а её траектория образует фигуру, напоминающую крылья бабочки.
Код:
Эта система демонстрирует "странный аттрактор" — траекторию, которая никогда не пересекает сама себя, не повторяется, но остается в ограниченной области пространства. Если взять две почти идентичные начальные точки (разница всего 0.001), их траектории сначала движутся почти одинаково, но затем полностью расходятся — наглядная визуализация эффекта бабочки❤️ .
Так, теория хаоса устанавливает фундаментальные ограничения на нашу способность предсказывать будущее. Идея в том, что если мы с Вами сейчас находимся в матрице, которая полностью подчиняется прописанным законам, мы никогда не сможем измерить начальные условия с бесконечной точностью (наши приборы не умеют так), а значит, не сможем предсказать отдаленное будущее сложных систем❌ .
Поэтому ругать метеорологов бессмысленно, ахах. Просто всегда берите с собой зонтик, ведь теперь знаете чуть больше.
Спасибо каждому👋 👋 .
Когда речь заходит про этот эффект, часто говорят про бабочку и ураган. Звучит это примерно так: может ли взмах крыльев бабочки в Москве вызвать торнадо в Техасе (на самом деле бабочка тут неспроста, читайте до конца)? Об этом можно пофантазировать, представить, что все в нашей жизни связано, а каждое, даже самое незначительное действие, запускает каскад других, которые могут вылиться в нечто большее
Я подумал, если наша вселенная — симуляция, можно ли написать достоверный прогноз погоды на месяц вперед? Или предсказать другие, более простые вещи. Например, я бросаю мяч
Лоренц описал своё открытие системой трех дифференциальных уравнений:
dx/dt = σ(y - x)
dy/dt = x(ρ - z) - y
dz/dt = xy - βz
При определенных значениях параметров (σ = 10, ρ = 28, β = 8/3) система демонстрирует хаотическое поведение, а её траектория образует фигуру, напоминающую крылья бабочки.
Код:
import numpy as np
import matplotlib.pyplot as plt
from scipy.integrate import solve_ivp
from mpl_toolkits.mplot3d import Axes3D
sigma, rho, beta = 10, 28, 8/3
def lorenz_system(t, xyz):
x, y, z = xyz
dx_dt = sigma * (y - x)
dy_dt = x * (rho - z) - y
dz_dt = x * y - beta * z
return [dx_dt, dy_dt, dz_dt]
initial_conditions = [1.0, 1.0, 1.0]
t_span = (0, 40)
t_points = np.linspace(t_span[0], t_span[1], 10000)
solution = solve_ivp(lorenz_system, t_span, initial_conditions,
t_eval=t_points, method='RK45')
fig = plt.figure(figsize=(10, 8))
ax = fig.add_subplot(111, projection='3d')
ax.plot(solution.y[0], solution.y[1], solution.y[2], lw=0.5, c='blue')
ax.scatter(initial_conditions[0], initial_conditions[1],
initial_conditions[2], color='red', s=30, label='Начало')
ax.set_noscript('Аттрактор Лоренца ("Эффект бабочки")')
plt.show()
initial1 = [1.0, 1.0, 1.0]
initial2 = [1.001, 1.0, 1.0] # Отличие всего на 0.001!
solution1 = solve_ivp(lorenz_system, t_span, initial1, t_eval=t_points)
solution2 = solve_ivp(lorenz_system, t_span, initial2, t_eval=t_points)
plt.figure(figsize=(12, 6))
plt.plot(t_points, solution1.y[0], 'b-', label='Траектория 1')
plt.plot(t_points, solution2.y[0], 'r-', label='Траектория 2')
plt.noscript('Расхождение траекторий с почти идентичными начальными условиями')
plt.legend()
plt.show()
Эта система демонстрирует "странный аттрактор" — траекторию, которая никогда не пересекает сама себя, не повторяется, но остается в ограниченной области пространства. Если взять две почти идентичные начальные точки (разница всего 0.001), их траектории сначала движутся почти одинаково, но затем полностью расходятся — наглядная визуализация эффекта бабочки
Так, теория хаоса устанавливает фундаментальные ограничения на нашу способность предсказывать будущее. Идея в том, что если мы с Вами сейчас находимся в матрице, которая полностью подчиняется прописанным законам, мы никогда не сможем измерить начальные условия с бесконечной точностью (наши приборы не умеют так), а значит, не сможем предсказать отдаленное будущее сложных систем
Поэтому ругать метеорологов бессмысленно, ахах. Просто всегда берите с собой зонтик, ведь теперь знаете чуть больше.
Спасибо каждому
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
LoFiCoder
🎮Game of Life: как математическая игра объясняет возникновение сложности
В 1970 году британский математик Джон Конвей создал игру, которая стала одной из самых важных моделей в науке о сложных системах. Game of Life демонстрирует фундаментальный принцип…
В 1970 году британский математик Джон Конвей создал игру, которая стала одной из самых важных моделей в науке о сложных системах. Game of Life демонстрирует фундаментальный принцип…
❤13🔥5🦄2⚡1👍1
Здесь крутой видосик из кода выше, визуализирующий уравнения Лоренца об эффекте бабочки.
А тему поста угадал мой преданный подписчик @nebois9. Канала у него нет, но не отметить угадавшего я не могу. Публично выражаю ему благодарность за интерес к моему творчеству и стараниям👍
#код_вселенной👨🚀
А тему поста угадал мой преданный подписчик @nebois9. Канала у него нет, но не отметить угадавшего я не могу. Публично выражаю ему благодарность за интерес к моему творчеству и стараниям
#код_вселенной
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16❤🔥2⚡2👌2👍1🔥1👾1
Всем привет! Надеюсь, что у вас всё хорошо, дорогие 👍
Завтра продолжим философскую тему яблок👊
Можете также угадывать, о чем будет речь на этот раз. Автора или его канал с наиболее близким вариантом, также отмечу.
Удачной недельки😶 🐱
Завтра продолжим философскую тему яблок
Можете также угадывать, о чем будет речь на этот раз. Автора или его канал с наиболее близким вариантом, также отмечу.
Удачной недельки
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥4🥰4
Всем привет, дорогие. Нас становится все больше, и я этому очень рад. Но с этим ростом, расчет и моя ответственность перед нами. Я надеюсь, что этот пост будет полезен не только мне, но и вам.
А начать хочется с того, что я готов признать, что я зависим от брендов и их позиционирования. Я работаю над этим, мне кажется, что пик пройден, но какое-то влияние имени фирмы на мое поведение и решения я все равно чувствую. Хотелось бы избавиться от этого полностью, чтобы быть свободным и не испытывать груз от мыслей, что у тебя телефон или машина не той "модной" модели. Как говорится, понимание проблемы — половина решения. Теперь мне стало интересно разобраться в чем причина, откуда это берется? Это же реальное бремя, которое накидывают на себя миллионы людей и тащат порой до конца жизни, не получая никакого удовлетворения от нее, ведь соревнование бесконечно. А наша с вами цель — жить счастливо. Поэтому заканчиваем болтовню, погнали ломать шаблоны вместе
Когда Эпл показывает, как все вокруг пользуются этими стильными, минималистичными, красивыми и дорогими айфонами, появляется желание присоединиться, верно? Но что, если этот механизм, заставляющий нас следовать за большинством, можно превратить из инструмента манипуляции в личную стратегию достижения целей? В прошлый раз, на примере бойцовского клуба, мы разобрались, как Эпл продает образы. Сегодня копнем глубже и посмотрим на фундаментальный механизм, лежащий в основе потребительского поведения — принцип социального доказательства. Он объясняет, почему мы автоматически считаем правильным то, что делают другие люди. Наш мозг эволюционировал в племенных сообществах, где изгнание означало смерть (я ученый, верьте мне). Поэтому в нашей нейробиологии глубоко закодирован страх отвержения и стремление соответствовать группе. Когда мы видим, что большинство делает определенный выбор, наш мозг выделяет дофамин — мы испытываем удовольствие от ощущения принадлежности и "правильности". Поэтому отзывы, рейтинги и оценки так влияют на наши решения, а вирусные тренды распространяются с невероятной скоростью. Парадокс современного общества в том, что мы одновременно стремимся быть индивидуальными и принадлежать к группе. Мы хотим выделяться, но не слишком. Это противоречие создает идеальную почву для манипуляций — от маркетинговых кампаний до социального давления. Но что, если использовать это знание не как жертва, а как стратег? Начать осознанно создавать собственные "круги социального доказательства".
Первый шаг — окружение.
Если вы хотите начать бегать по утрам, найдите сообщество бегунов. Когда ваш мозг видит, что все вокруг бегают, сопротивление новой привычке резко падает. Использование его природных механизмов для достижения целей.
Второй шаг — публичность.
Когда вы объявляете о своих намерениях публично, включается тот самый древний страх отвержения. Страх потерять лицо становится мощным мотиватором. Именно поэтому публичные челленджи и марафоны так эффективны.
Третий шаг — создание видимости.
И это самый тонкий и крутой момент. Когда вы начинаете документировать свой прогресс (прямо как я сейчас, кстати), делиться результатами, вы создаете собственное социальное доказательство. Другие начинают видеть в вас пример, и их реакция усиливает вашу мотивацию. Круг замыкается — вы становитесь тем самым "большинством" для кого-то еще.
Но здесь кроется ловушка. Легко потеряться в погоне за одобрением, превратив средство в цель. Когда лайки становятся важнее результата, а имидж важнее сути, вы снова становитесь жертвой механизма, только на более изощренном уровне.
Истинное мастерство в балансе внутреннего компаса.
Хочется пожелать вам выбирать круги влияния осознанно, а не по инерции. И помните, самое сильное социальное доказательство, это когда ваши действия вдохновляют других не потому, что вы следуете трендам, а потому, что создаете их.
В конце концов, вопрос не в том, будете ли вы подвержены влиянию — мы все социальные существа. Вопрос в том, выберете ли вы это влияние сами или позволите случайности и алгоритмам решать за вас.
Споки ноки
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
LoFiCoder
Apple продает не технологии, а иллюзии: вскрываем механику желания 😵💫
Первый раз я посмотрел "Бойцовский клуб", когда был слишком юн. Тогда он мне показался слишком непонятным. Тем не менее на протяжении многих лет после я слышал только хвалебные отзывы…
Первый раз я посмотрел "Бойцовский клуб", когда был слишком юн. Тогда он мне показался слишком непонятным. Тем не менее на протяжении многих лет после я слышал только хвалебные отзывы…
❤22👍5❤🔥3🔥3👏2🏆2🕊1
Всем привет! 😆
Сегодня делаем пост. По традиции отмечу канал того, кто угадает, о чем он будет🙂
Был небольшой перерывчик — много работы. Всем доброй недели🌻
Сегодня делаем пост. По традиции отмечу канал того, кто угадает, о чем он будет
Был небольшой перерывчик — много работы. Всем доброй недели
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14🔥4👏4🦄2
Фракталы: бесконечная сложность из простых правил 🌧
#код_вселенной
Начнём с простого вопроса: какова длина берега Британии? Звучит как школьная задача, однако ответ зависит от того, какой «линейкой» Вы измеряете его: километровой — получаете одно значение, метровой — большее, миллиметровой — ещё большее. Причина не в неточности учёта, а в том, что природа устроена иначе, чем нас учили в школе. Реальность не состоит из гладких линий и идеальных кругов евклидовой геометрии.
Когда математик Бенуа Мандельброт в 1975 году ввел термин "фрактал", он открыл новый способ понимания сложности. Оказалось, что многие природные структуры — от береговых линий до легких человека — следуют удивительным математическим закономерностям. В строгом математическом смысле фрактал характеризуется дробной хаусдорфовой размерностью, которая строго превышает его топологическую размерность. Звучит сложно? Давайте разберем на примере:
🥺 Линия имеет топологическую размерность 1
🐱 Плоскость — размерность 2
🐱 Обычный объем — размерность 3
Фракталы же "застревают" между этими целочисленными измерениями. Например, знаменитая кривая Коха, несмотря на то что является линией, имеет размерность приблизительно 1.26, что делает её "больше чем линия, но меньше чем поверхность". Граница множества Мандельброта имеет гаусдорфову размерность ровно 2 (строго доказано Шишикурой в 1991 году), что означает максимальную сложность — она "заполняет" двумерную область, оставаясь топологически одномерной кривой.
PS: если говорить по-русски, то это геометрическая структура, обладающая самоподобием — каждая часть статистически или точно повторяет целое. И сколько бы вы не приближали рисунок он будет состоять из частей, подобных целому изображению. То есть, по сути, быть бесконечным в каком-то смысле. Это позволяет оптимизировать площадь под рисунком, потому что он бесконечно детализирован, у него, грубо говоря, бесконечная граница (видосы ниже). Для простоты можете, как я уже выше обозначил представить себе береговую линию. С МКС она будет иметь один контур🙂 , с самолета — другой ✈️ , с воздушного шара —третий (здесь смайлик не нашел). Причем это один и тот же берег. Но приближаясь к нему, мы видим новые и новые его витки.
🌸 Природа использует фракталы для оптимизации. Легкие человека имеют альвеолярную поверхность 50-140 м² (чаще ~70 м² — размер теннисного корта!) при объеме грудной клетки всего ~6 литров. Корневые системы следуют L-системам Линденмайера, а сосудистые сети — модели Вейбеля для максимального покрытия при минимальных энергозатратах.
Возможно, значительная часть сложности нашего мира действительно возникает из элегантных алгоритмов, работающих на разных масштабах — от квантового до космического👨🚀 . Природа оказалась гениальным "программистом", использующим рекурсивные структуры задолго до появления компьютеров. Сейчас же современные IT‑системы успешно используют принципы фрактальной геометрии: повторяющиеся блоки в ResNet обеспечивают глубоким нейросетям стабильное обучение и борьбу с исчезающим градиентом, а измерение дробной размерности текстур помогает в анализе данных — от различения оригиналов и подделок картин до выявления патологий на медицинских снимках и прогнозирования сбоев в сетевом трафике. А интернет вообще сам по себе фрактален...👫
В общем, если уйти немного в философию, иногда решение кроется в том, чтобы найти простое правило, которое, повторяясь, создает всю сложность.
Всем спасибо! Ниже будет код и видосы, полученные с помощью него. Вы можете скопировать его в Google Colab и поиграться со значениями прямо там. Если будет сложно — пишите. Хорошей недели❤️
#код_вселенной
Начнём с простого вопроса: какова длина берега Британии? Звучит как школьная задача, однако ответ зависит от того, какой «линейкой» Вы измеряете его: километровой — получаете одно значение, метровой — большее, миллиметровой — ещё большее. Причина не в неточности учёта, а в том, что природа устроена иначе, чем нас учили в школе. Реальность не состоит из гладких линий и идеальных кругов евклидовой геометрии.
Когда математик Бенуа Мандельброт в 1975 году ввел термин "фрактал", он открыл новый способ понимания сложности. Оказалось, что многие природные структуры — от береговых линий до легких человека — следуют удивительным математическим закономерностям. В строгом математическом смысле фрактал характеризуется дробной хаусдорфовой размерностью, которая строго превышает его топологическую размерность. Звучит сложно? Давайте разберем на примере:
Фракталы же "застревают" между этими целочисленными измерениями. Например, знаменитая кривая Коха, несмотря на то что является линией, имеет размерность приблизительно 1.26, что делает её "больше чем линия, но меньше чем поверхность". Граница множества Мандельброта имеет гаусдорфову размерность ровно 2 (строго доказано Шишикурой в 1991 году), что означает максимальную сложность — она "заполняет" двумерную область, оставаясь топологически одномерной кривой.
PS: если говорить по-русски, то это геометрическая структура, обладающая самоподобием — каждая часть статистически или точно повторяет целое. И сколько бы вы не приближали рисунок он будет состоять из частей, подобных целому изображению. То есть, по сути, быть бесконечным в каком-то смысле. Это позволяет оптимизировать площадь под рисунком, потому что он бесконечно детализирован, у него, грубо говоря, бесконечная граница (видосы ниже). Для простоты можете, как я уже выше обозначил представить себе береговую линию. С МКС она будет иметь один контур
Возможно, значительная часть сложности нашего мира действительно возникает из элегантных алгоритмов, работающих на разных масштабах — от квантового до космического
В общем, если уйти немного в философию, иногда решение кроется в том, чтобы найти простое правило, которое, повторяясь, создает всю сложность.
Всем спасибо! Ниже будет код и видосы, полученные с помощью него. Вы можете скопировать его в Google Colab и поиграться со значениями прямо там. Если будет сложно — пишите. Хорошей недели
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥3🥰2❤🔥1
Кусочек кода с примером самоподобия для ваших экспериментов. Если его мало, пишите мне в лс, пришлю полную версию. #код_вселенной
Угадал тему поста автор этого канала: https://news.1rj.ru/str/+8AVJxo0Y_nc0NDIy. Очень приятно поддержать начинающего. Помню, когда у самого подписчиков еле 20-30 набиралось, был безумно благодарен за добрый комментарий или респект от других, более крупных, каналов. Ну и сейчас, конечно, тоже не откажусь от Вашей положительной реакции❤️
Угадал тему поста автор этого канала: https://news.1rj.ru/str/+8AVJxo0Y_nc0NDIy. Очень приятно поддержать начинающего. Помню, когда у самого подписчиков еле 20-30 набиралось, был безумно благодарен за добрый комментарий или респект от других, более крупных, каналов. Ну и сейчас, конечно, тоже не откажусь от Вашей положительной реакции
!pip install matplotlib ipywidgets
from IPython.display import HTML, display
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.animation as animation
%matplotlib inline
plt.rcParams['animation.html'] = 'jshtml'
plt.rcParams['figure.figsize'] = [10, 8]
def mandelbrot_zoom_animation():
def mandelbrot(h, w, max_iter, zoom, center):
x = np.linspace(center[0] - 2/zoom, center[0] + 2/zoom, w)
y = np.linspace(center[1] - 2/zoom, center[1] + 2/zoom, h)
X, Y = np.meshgrid(x, y)
C = X + 1j*Y
Z = np.zeros_like(C)
M = np.zeros(C.shape)
for i in range(max_iter):
mask = np.abs(Z) <= 2
Z[mask] = Z[mask]2 + C[mask]
M[~mask & (M == 0)] = i
M[M == 0] = max_iter
return M
fig, ax = plt.subplots(figsize=(10, 10))
zoom_center = (-0.8, 0.156)
def animate(frame):
ax.clear()
zoom_level = 1.5 frame
max_iter = min(50 + frame * 2, 100)
mandel = mandelbrot(400, 400, max_iter, zoom_level, zoom_center)
extent = [
zoom_center[0] - 2/zoom_level, zoom_center[0] + 2/zoom_level,
zoom_center[1] - 2/zoom_level, zoom_center[1] + 2/zoom_level
]
ax.imshow(mandel, extent=extent, cmap='hot', origin='lower')
ax.set_noscript(
f'Множество Мандельброта — Зум x{zoom_level:.1f}\nБесконечное самоподобие!',
fontsize=14, color='white',
bbox=dict(boxstyle="round,pad=0.3", facecolor="black", alpha=0.7)
)
ax.set_xlabel('Re(c)', color='white')
ax.set_ylabel('Im(c)', color='white')
ax.tick_params(colors='white')
fig.patch.set_facecolor('black')
ax.set_facecolor('black')
anim = animation.FuncAnimation(fig, animate, frames=25, interval=300, repeat=True)
plt.close(fig)
return anim
anim = mandelbrot_zoom_animation()
display(HTML(anim.to_jshtml()))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23🔥5🥰4❤🔥3
Всем привет! Пост сегодня 😊
По сложившийся традиции, кто угадает тему, того отмечу. Но в этот раз будет сложно (я сам не ожидал), если что простите, я не специально. В любом случае попытать удачу стоит.
Удачи, друзья😘
По сложившийся традиции, кто угадает тему, того отмечу. Но в этот раз будет сложно (я сам не ожидал), если что простите, я не специально. В любом случае попытать удачу стоит.
Удачи, друзья
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🤩6❤🔥2💘2🦄2
Случайна ли наша Вселенная и при чем тут машинное обучение? ✨
Еще раз, всем доброго дня🇲🇽 Недавно наткнулся на необычную статью о природе случайности. Ее идея зацепила меня, поэтому я решил не только поделиться ею, но и добавить некоторые размышления на эту тему, особенно с учетом современных подходов к искусственному интеллекту и моего интереса 🍿 .
❔ Что такое случайность?
Оксфордский словарь определяет случайность как "отсутствие закономерности или предсказуемости в событиях". Здесь ключевым моментом для понимания является то, что случайность больше связана с нашей способностью предсказывать, чем с самим событием. Самому событию как таковому все равно, оно просто происходит. А мы, как наблюдатели, уже трактуем, было оно для нас случайным (не предсказуемым) или очевидным (предсказуемым).
Для простоты представьте двух метеорологов. Один плохо учился в универе, и диплом ему написал чат джипити, а второй старался, чето делал и даже закончил сам без троек. Невежественный ленивый парень знает только, что в этом регионе дождь идёт 40% времени в году. Он скажет: "Вероятность дождя сегодня 40%". Умный и старательный дополнительно знает, что сейчас сухой сезон, и скажет: "Вероятность дождя сегодня всего 5%". Для первого ситуация кажется гораздо более случайной, чем для второго. Но само событие дождя не изменилось. Изменилось только количество информации для его предсказания.
Случайность через призму машинного обучения🖥
Эта история с двумя метеорологами очень интересно перекликается с тем, как работает машинное обучение. Случайность можно рассматривать через призму трёх ключевых компонентов любой ML-системы:
🐾 Входные данные (features) — информация, которую мы используем для предсказания. В примере с погодой это могут быть исторические данные, текущая влажность, атмосферное давление и т.д.
🐾 Целевые данные (targets) — то, что мы пытаемся предсказать (пойдёт ли дождь, будет ли невыносимо жарко, штиль, шторм и т.д.)
🐾 Модель — алгоритм или набор правил, преобразующий входные данные в предсказания
Чем лучше модель превращает входные данные в точные предсказания, тем меньше мы воспринимаем событие как случайное. Однако, даже топовые ML-модели сталкиваются с "необъяснимой дисперсией" — данными, которые невозможно предсказать. Может, это косвенно доказывает, что в мире действительно есть что-то фундаментально непредсказуемое, как мы обсуждали это раньше, когда программировали эффект бабочки и получили красивый видос🦋 .
"случайность" vs "Случайность"❔
Для описания этой мысли введем два понятия:
случайность (с маленькой буквы) — то, что не можем предсказать из-за недостатка информации
Случайность (с большой буквы) — то, что невозможно предсказать в принципе, даже с бесконечными знаниями
В ML это отражается в разнице между "уменьшаемой ошибкой" (исправляемой с большим количеством данных) и "неуменьшаемой ошибкой" (которая остаётся всегда).
Так случайна ли Вселенная?❌
Мы ежедневно создаём модели, которые успешно предсказывают многие явления: от погоды до поведения рынка. Значит, мир во многом причинно‑следственен. Но вопрос «есть ли части Вселенной, где причина отсутствует?» остаётся открытым. По логике, при любом устройстве пространства и времени (конечном или бесконечном) в момент «начала» Вселенная требовала события без причины — а значит, фундаментальной «Случайности». Понимание «маленькой» случайности помогает нам улучшать модели машинного обучения и точнее управлять процессами (сельское хозяйство, медицина, финансы). Размышления о «Большой» Случайности заставляют задуматься о границах человеческого знания и о том, как далеко мы можем продвинуться в объяснении мира.
Что думаете?
P.S. Если заинтересовала тема, вот ссылка на оригинальную статью.
P.P.S: никто тему не угадал, но была пара хороших предположений.
Всех обнял😉 .
#код_вселенной #СтроимИИ
Еще раз, всем доброго дня
Оксфордский словарь определяет случайность как "отсутствие закономерности или предсказуемости в событиях". Здесь ключевым моментом для понимания является то, что случайность больше связана с нашей способностью предсказывать, чем с самим событием. Самому событию как таковому все равно, оно просто происходит. А мы, как наблюдатели, уже трактуем, было оно для нас случайным (не предсказуемым) или очевидным (предсказуемым).
Для простоты представьте двух метеорологов. Один плохо учился в универе, и диплом ему написал чат джипити, а второй старался, чето делал и даже закончил сам без троек. Невежественный ленивый парень знает только, что в этом регионе дождь идёт 40% времени в году. Он скажет: "Вероятность дождя сегодня 40%". Умный и старательный дополнительно знает, что сейчас сухой сезон, и скажет: "Вероятность дождя сегодня всего 5%". Для первого ситуация кажется гораздо более случайной, чем для второго. Но само событие дождя не изменилось. Изменилось только количество информации для его предсказания.
Случайность через призму машинного обучения
Эта история с двумя метеорологами очень интересно перекликается с тем, как работает машинное обучение. Случайность можно рассматривать через призму трёх ключевых компонентов любой ML-системы:
Чем лучше модель превращает входные данные в точные предсказания, тем меньше мы воспринимаем событие как случайное. Однако, даже топовые ML-модели сталкиваются с "необъяснимой дисперсией" — данными, которые невозможно предсказать. Может, это косвенно доказывает, что в мире действительно есть что-то фундаментально непредсказуемое, как мы обсуждали это раньше, когда программировали эффект бабочки и получили красивый видос
"случайность" vs "Случайность"
Для описания этой мысли введем два понятия:
случайность (с маленькой буквы) — то, что не можем предсказать из-за недостатка информации
Случайность (с большой буквы) — то, что невозможно предсказать в принципе, даже с бесконечными знаниями
В ML это отражается в разнице между "уменьшаемой ошибкой" (исправляемой с большим количеством данных) и "неуменьшаемой ошибкой" (которая остаётся всегда).
Так случайна ли Вселенная?
Мы ежедневно создаём модели, которые успешно предсказывают многие явления: от погоды до поведения рынка. Значит, мир во многом причинно‑следственен. Но вопрос «есть ли части Вселенной, где причина отсутствует?» остаётся открытым. По логике, при любом устройстве пространства и времени (конечном или бесконечном) в момент «начала» Вселенная требовала события без причины — а значит, фундаментальной «Случайности». Понимание «маленькой» случайности помогает нам улучшать модели машинного обучения и точнее управлять процессами (сельское хозяйство, медицина, финансы). Размышления о «Большой» Случайности заставляют задуматься о границах человеческого знания и о том, как далеко мы можем продвинуться в объяснении мира.
Что думаете?
P.S. Если заинтересовала тема, вот ссылка на оригинальную статью.
P.P.S: никто тему не угадал, но была пара хороших предположений.
Всех обнял
#код_вселенной #СтроимИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
LoFiCoder
Всем привет! 🐱
Я сегодня долго спал и собирал клубнику с красной смородиной 🌸. А как у Вас суббота? Если вы тоже в шоке от того, как быстро летят выходные ставьте лайк ❤️.
Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу…
Я сегодня долго спал и собирал клубнику с красной смородиной 🌸. А как у Вас суббота? Если вы тоже в шоке от того, как быстро летят выходные ставьте лайк ❤️.
Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу…
❤10👍4🤔2👌2💯2🔥1
Ура! Нас 1000 🎸
Спасибо каждому, кто проявил интерес к каналу, поддержал, написал в лс добрые слова. Для меня очень важны ваши реакции, репосты, все вижу, все мониторю. Наверное, даже чересчур часто‼️
Чтобы канал был поуютнее, я решил открыть комментарии. Теперь можно общаться там🐱
Если канал Вам реально нравится, можете проголосовать за него по ссылке ниже. Мне будет приятно🥰
https://news.1rj.ru/str/LoFiCoders?boost
Спасибо каждому, кто проявил интерес к каналу, поддержал, написал в лс добрые слова. Для меня очень важны ваши реакции, репосты, все вижу, все мониторю. Наверное, даже чересчур часто
Чтобы канал был поуютнее, я решил открыть комментарии. Теперь можно общаться там
Если канал Вам реально нравится, можете проголосовать за него по ссылке ниже. Мне будет приятно
https://news.1rj.ru/str/LoFiCoders?boost
Please open Telegram to view this post
VIEW IN TELEGRAM
❤33🎉9🦄4🏆3😎2
Разыгрываем Яндекс Станцию Лайт 2 🎉
Всем привет! Спасибо за ожидание. Возвращаюсь после перерыва не с пустыми руками. Спасибо за 1000, всем удачи в конкурсе😘
Знаете ли вы, что Алиса умеет… сопереживать? Яндекс прокачал TTS-модуль (синтез речи), и голосовой помощник научился контекстно-зависимым эмоциям: удивляться, грустить, радоваться — прямо во время разговора.
Как это работает?
— NLU-модуль анализирует не только слова, но и настроение фразы (например, «Мне тяжело» → метка «грусть»).
— Нейросеть на основе актёрских записей подбирает интонацию, паузы и даже вздохи, меняя эмоцию внутри фразы.
Дарим такую станцию одному из вас!
Немного о нас:
🔹 «Данные решают» — канал от ИРИТ-РТФ, где специалисты рассказывают об IT, радиоэлектронике и технологиях без воды. Экспертное мнение, тренды, реальные истории успехов и провалов, а также возможности обучения — всё для вашего роста.
🔹 LoFiCoder — канал молодого учёного, решившего постигнуть код. Вместе объединяем IT и науку, продвигаем и участвуем в масштабном российском ML-проекте (по крайней мере, пытаемся), делимся программами с подписчиками, потому что для вас ничего не жалко, дорогие 👨🏼💻🫰🏻
Чтобы участвовать в розыгрыше, нужно:
— подписаться на каналы «Данные решают», LoFiCoder,
— нажать кнопку «Участвую!»,
— поделиться этим постом с другом.
Победитель будет объявлен 25 августа. Обнимаю!🐱 ❤️
Всем привет! Спасибо за ожидание. Возвращаюсь после перерыва не с пустыми руками. Спасибо за 1000, всем удачи в конкурсе
Знаете ли вы, что Алиса умеет… сопереживать? Яндекс прокачал TTS-модуль (синтез речи), и голосовой помощник научился контекстно-зависимым эмоциям: удивляться, грустить, радоваться — прямо во время разговора.
Как это работает?
— NLU-модуль анализирует не только слова, но и настроение фразы (например, «Мне тяжело» → метка «грусть»).
— Нейросеть на основе актёрских записей подбирает интонацию, паузы и даже вздохи, меняя эмоцию внутри фразы.
Дарим такую станцию одному из вас!
Немного о нас:
🔹 «Данные решают» — канал от ИРИТ-РТФ, где специалисты рассказывают об IT, радиоэлектронике и технологиях без воды. Экспертное мнение, тренды, реальные истории успехов и провалов, а также возможности обучения — всё для вашего роста.
🔹 LoFiCoder — канал молодого учёного, решившего постигнуть код. Вместе объединяем IT и науку, продвигаем и участвуем в масштабном российском ML-проекте (по крайней мере, пытаемся), делимся программами с подписчиками, потому что для вас ничего не жалко, дорогие 👨🏼💻🫰🏻
Чтобы участвовать в розыгрыше, нужно:
— подписаться на каналы «Данные решают», LoFiCoder,
— нажать кнопку «Участвую!»,
— поделиться этим постом с другом.
Победитель будет объявлен 25 августа. Обнимаю!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤16⚡6🎉3🤝2