Forwarded from Данные решают
ИИ VS ХАКЕРЫ
Искусственный интеллект сегодня — это и мощный инструмент защиты, и опасное оружие в руках злоумышленников. Мы поговорили с двумя экспертами, чтобы разобраться в этой непростой дилемме.
🔹 Автор канала LoFiCoder, дипломированный специалист, занимающийся написанием программ для исследовательских и технических задач, объяснил нам:
— Как ИИ вообще связан с кибербезопасностью?
— По каким принципам ИИ обнаруживает скрытые атаки?
— Возможно ли предсказание кибератак до их совершения?
🔹 Николай Домуховский, заместитель генерального директора по научно-технической работе, директор аналитического центра УЦСБ, рассказал о том:
— Как хакеры уже используют ИИ против нас?
— Какое будущее ждёт специалистов по безопасности?
Скорее читайте пост и делитесь своим мнением по этой теме!
Искусственный интеллект сегодня — это и мощный инструмент защиты, и опасное оружие в руках злоумышленников. Мы поговорили с двумя экспертами, чтобы разобраться в этой непростой дилемме.
🔹 Автор канала LoFiCoder, дипломированный специалист, занимающийся написанием программ для исследовательских и технических задач, объяснил нам:
— Как ИИ вообще связан с кибербезопасностью?
— По каким принципам ИИ обнаруживает скрытые атаки?
— Возможно ли предсказание кибератак до их совершения?
🔹 Николай Домуховский, заместитель генерального директора по научно-технической работе, директор аналитического центра УЦСБ, рассказал о том:
— Как хакеры уже используют ИИ против нас?
— Какое будущее ждёт специалистов по безопасности?
Скорее читайте пост и делитесь своим мнением по этой теме!
❤8👾5🔥4⚡3❤🔥2
Всем привет! 👍
Дропну пост завтра. Пока можете попробовать угадать, о чем он будет😶 🐱
Всем качественного завершения выходных🛀
Дропну пост завтра. Пока можете попробовать угадать, о чем он будет
Всем качественного завершения выходных
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20🐳4👍1🔥1🏆1
В общем, не хочу быть слишком душным. Помните, что каждый запрос имеет свою цену, которая может быть не так очевидна
Всем хорошей и быстро рабочей недели
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯24❤13🗿3🔥1😱1👌1🤝1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15❤🔥4👍4
Начинаем новое важное путешествие 👨🚀
🚪 Этот пост открывает серию материалов, где мы пошагово разберём весь процесс создания нейросети — от идеи до рабочего продукта. Постараюсь все излагать техническим, но в то же время понятным русским языком.
Я думаю, что не меня одного будоражит эта тема. Мне хочется разобраться в ней глубже, понять внутрянку. Я подумал, что круто будет сделать это нам здесь всем вместе❤️ ❤️ ❤️
Меня радует то, что сейчас, в 2025 году, можно сделать нейронку без огромных финансовых вложений благодаря готовым решениям. Не нужно обучать модель с нуля — можно взять предобученную (например, BERT для понимания текста или GPT для генерации) и доучить её под свою задачу. Это экономит месяцы работы. Но также требует определенного уровня знаний. Поэтому предупреждаю, просто не будет никому (ни мне, ни вам😭 ). В доказательство этому читайте текст ниже.
💪 Первый кирпичик — данные.
Нейросети учатся на примерах, как студенты по учебникам. Для простых задач классификации нужно 10-50 тысяч примеров, для сложных — миллионы. Главное — качество и разнообразие данных. Необходимо убирать дубли, исправлять ошибки, следить за балансом классов. Если нужна разметка (например, для определения тональности текста), используйте инструменты вроде Label Studio или обращайтесь к краудсорсингу.
💪 Второй кирпичик — архитектура модели.
Это "мозг" нейросети. Сегодня доминируют Transformer-архитектуры — они хорошо работают с текстом, изображениями и другими данными. Не изобретайте велосипед: возьмите готовую модель с Hugging Face (там тысячи вариантов) и адаптируйте под задачу. Для экономии ресурсов присмотритесь к "маленьким" моделям вроде DistilBERT — они работают быстрее и требуют меньше памяти.
💪 Третий кирпичик — вычислительные ресурсы.
Нейросети требуют мощных видеокарт (GPU) для обучения. Варианты: арендовать в облаке (от 10 до 2000 зеленых в месяц, все зависит от сложности проекта) или купить RTX 4080/4090 для домашнего использования. Современные "компактные" модели могут работать даже на MacBook с чипом M3. Поэтому сделать домашнюю нейронку вполне реально.
💪 Четвёртый кирпичик — процесс обучения.
Используйте готовые фреймворки вроде PyTorch или TensorFlow — они автоматизируют большую часть работы. Типичный процесс: загрузили данные, выбрали предобученную модель, настроили параметры обучения (learning rate, batch size), запустили fine-tuning. Следите за метриками в реальном времени с помощью Weights & Biases или TensorBoard (ставь лайк, если пока тоже ниче непонятно).
💪 Пятый кирпичик — оценка результатов.
Проверяйте модель на новых данных, которые она не видела при обучении. Для классификации смотрите на accuracy и F1-score, для генерации текста — на perplexity. Важно понимать, где модель ошибается и почему. Используйте инструменты объяснимости (SHAP, LIME), чтобы понять логику решений модели.
💪 Шестой кирпичик — развёртывание.
Готовую модель нужно сделать доступной пользователям. Простейший вариант — Hugging Face Inference API (несколько кликов). Для большего контроля используйте FastAPI + Docker. Не забывайте про мониторинг, следите за производительностью и качеством предсказаний, обновляйте модель по мере поступления новых данных.
Если Вы дочитали до сюда и Вам интересно во всем этом разобраться, то добро пожаловать. Я буду только рад, если Вам это также вкатывает как и мне. Когда с этим справимся, полезем глубже🐱 .
Мне самому немного страшно браться за такое большое и сложное начинание, но усердие и труд все перетрут, так что погнали (посты серии будут с этим тегом #СтроимИИ🤨 ).
Всем удачи! Очень рад, что сообщество растет и мы с вами тоже, дорогие❤️
Я думаю, что не меня одного будоражит эта тема. Мне хочется разобраться в ней глубже, понять внутрянку. Я подумал, что круто будет сделать это нам здесь всем вместе
Меня радует то, что сейчас, в 2025 году, можно сделать нейронку без огромных финансовых вложений благодаря готовым решениям. Не нужно обучать модель с нуля — можно взять предобученную (например, BERT для понимания текста или GPT для генерации) и доучить её под свою задачу. Это экономит месяцы работы. Но также требует определенного уровня знаний. Поэтому предупреждаю, просто не будет никому (ни мне, ни вам
Нейросети учатся на примерах, как студенты по учебникам. Для простых задач классификации нужно 10-50 тысяч примеров, для сложных — миллионы. Главное — качество и разнообразие данных. Необходимо убирать дубли, исправлять ошибки, следить за балансом классов. Если нужна разметка (например, для определения тональности текста), используйте инструменты вроде Label Studio или обращайтесь к краудсорсингу.
Это "мозг" нейросети. Сегодня доминируют Transformer-архитектуры — они хорошо работают с текстом, изображениями и другими данными. Не изобретайте велосипед: возьмите готовую модель с Hugging Face (там тысячи вариантов) и адаптируйте под задачу. Для экономии ресурсов присмотритесь к "маленьким" моделям вроде DistilBERT — они работают быстрее и требуют меньше памяти.
Нейросети требуют мощных видеокарт (GPU) для обучения. Варианты: арендовать в облаке (от 10 до 2000 зеленых в месяц, все зависит от сложности проекта) или купить RTX 4080/4090 для домашнего использования. Современные "компактные" модели могут работать даже на MacBook с чипом M3. Поэтому сделать домашнюю нейронку вполне реально.
Используйте готовые фреймворки вроде PyTorch или TensorFlow — они автоматизируют большую часть работы. Типичный процесс: загрузили данные, выбрали предобученную модель, настроили параметры обучения (learning rate, batch size), запустили fine-tuning. Следите за метриками в реальном времени с помощью Weights & Biases или TensorBoard (ставь лайк, если пока тоже ниче непонятно).
Проверяйте модель на новых данных, которые она не видела при обучении. Для классификации смотрите на accuracy и F1-score, для генерации текста — на perplexity. Важно понимать, где модель ошибается и почему. Используйте инструменты объяснимости (SHAP, LIME), чтобы понять логику решений модели.
Готовую модель нужно сделать доступной пользователям. Простейший вариант — Hugging Face Inference API (несколько кликов). Для большего контроля используйте FastAPI + Docker. Не забывайте про мониторинг, следите за производительностью и качеством предсказаний, обновляйте модель по мере поступления новых данных.
Если Вы дочитали до сюда и Вам интересно во всем этом разобраться, то добро пожаловать. Я буду только рад, если Вам это также вкатывает как и мне. Когда с этим справимся, полезем глубже
Мне самому немного страшно браться за такое большое и сложное начинание, но усердие и труд все перетрут, так что погнали (посты серии будут с этим тегом #СтроимИИ
Всем удачи! Очень рад, что сообщество растет и мы с вами тоже, дорогие
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21👍9❤🔥4🔥3🤯2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥3🥰2
Да что такое ваш АПИ?! ❔
API (Application Programming Interface) — это невидимый мост🔨 , соединяющий разные программы и сервисы, позволяя им болтать друг с другом без участия человека. Представьте себе официанта в ресторане 🍷 : Вы выбираете блюдо из меню, он передаёт заказ на кухню и приносит готовое угощение 🐟 . В нашей цифровой “кухне” меню — это документация API, запросы и ответы — те самые блюда, а HTTP‑протокол выступает в роли официанта.
Корни API уходят в первые операционные системы 1960–70‑х годов, когда программисты впервые получили набор функций для работы с файлами и устройствами🖥 . Но настоящий взлёт пришёл с вебом и публикацией в 2000 году диссертации Роя Филдинга, описавшей стиль REST. С тех пор RESTful API, использующие методы GET, POST, PUT и DELETE, стали стандартом для обмена данными в формате JSON и XML.
Почему API так важны? Во‑первых, они обеспечивают модульность и переиспользование. Так, написав интерфейс один раз, вы открываете его десяткам клиентов — мобильным приложениям😶 , веб‑сайтами 😶 , микросервисам 😶 — без лишнего дублирования кода. Во‑вторых, API дарят автоматизацию. Роботы и скрипты способны запускать процессы по расписанию — от публикации постов в социальных сетях до управления умным домом, избавляя Вас от жеской рутины. В‑третьих, вокруг API выстраивается целая экономика — корпорации вроде Twitter, ой, X ❌ , Google и Amazon продают доступ к своим данным и вычислительным ресурсам, а стартапы создают уникальные интеграции и расширения, превращая интерфейсы в самостоятельный источник дохода.
Сейчас такие мосты соединяют нас не только с классическими API🙂 , но и с самыми продвинутыми нейросетями. Представьте, что Вы ведёте бизнес. А значит, находитесь в среде, где каждый день идёт борьба за внимание, ресурсы и время. Скорость становится конкурентным преимуществом: тот, кто быстрее запускает продукт, тестирует идеи или отвечает клиентам, выигрывает. Здесь на сцену выходит нейросетевой конструктор — простая оболочка над мощными ИИ-моделями вроде GPT‑4. Вместо того чтобы вручную формулировать запросы, настраивать параметры и копировать ответы, Вы просто выбираете нужную задачу — «написать письмо», «сформировать отчёт», «обработать отзыв» — и вводите ключевые данные. Всё остальное происходит автоматически: система сама формирует запрос, запускает ИИ, получает результат и сразу отправляет его в нужный инструмент — CRM, документы, рассылку. Все ускоряется, ребята, не знаю хорошо это или плохо 😐 .
Всем неторопливых выходных. Спасибо Вам💘
API (Application Programming Interface) — это невидимый мост
Корни API уходят в первые операционные системы 1960–70‑х годов, когда программисты впервые получили набор функций для работы с файлами и устройствами
Почему API так важны? Во‑первых, они обеспечивают модульность и переиспользование. Так, написав интерфейс один раз, вы открываете его десяткам клиентов — мобильным приложениям
Сейчас такие мосты соединяют нас не только с классическими API
Всем неторопливых выходных. Спасибо Вам
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥5❤🔥3👾2✍1👍1🤝1
Всем привет! 🐱
Я сегодня долго спал и собирал клубнику с красной смородиной🌸 . А как у Вас суббота? Если вы тоже в шоке от того, как быстро летят выходные ставьте лайк ❤️ .
Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу Ваш канал в публикации🥰 . Вот такой вот интерактив придумал буквально сейчас, пока писал этот текст.
Подсказка: будет #код_вселенной (одна из любимых моих рубрик)👨🚀
Если хотите меня поддержать, делитесь этим каналом. Мне будет очень приятно. Всем любви и теплого лета, обнимаю каждого❤️ ❤️
Я сегодня долго спал и собирал клубнику с красной смородиной
Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу Ваш канал в публикации
Подсказка: будет #код_вселенной (одна из любимых моих рубрик)
Если хотите меня поддержать, делитесь этим каналом. Мне будет очень приятно. Всем любви и теплого лета, обнимаю каждого
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18❤🔥3👍2🔥2
Теория хаоса: эффект бабочки и предсказуемость вселенной 🦋
Когда речь заходит про этот эффект, часто говорят про бабочку и ураган. Звучит это примерно так: может ли взмах крыльев бабочки в Москве вызвать торнадо в Техасе (на самом деле бабочка тут неспроста, читайте до конца)? Об этом можно пофантазировать, представить, что все в нашей жизни связано, а каждое, даже самое незначительное действие, запускает каскад других, которые могут вылиться в нечто большее❕ . После таких размышлений складывается ощущение, что действительно, тот вклад бабочки в формирование воздушных потоков может повлиять на прогноз погоды в другой части света. Почему нет? - Тем более мы с Вами уже знаем про явление эмерджентности — когда множество простого порождает нечто сложное 🧑🏫 .
Я подумал, если наша вселенная — симуляция, можно ли написать достоверный прогноз погоды на месяц вперед? Или предсказать другие, более простые вещи. Например, я бросаю мяч🐱 . Зная его начальную скорость, угол броска, сопротивление воздуха, я могу предсказать куда он приземлится, верно? Оказывается невсегда. Теория хаоса объясняет, почему иногда невозможно предсказать даже то, что полностью подчиняется четким законам физики 🐱 .
🐝 В 1960-х годах метеоролог Эдвард Лоренц обнаружил удивительное явление. Округлив значение в расчетах с 0.506127 до 0.506, он получил совершенно другие результаты при повторном запуске модели атмосферы. Так родилась концепция "чувствительной зависимости от начальных условий" — эффект бабочки (математически будет очень красиво).
Лоренц описал своё открытие системой трех дифференциальных уравнений:
dx/dt = σ(y - x)
dy/dt = x(ρ - z) - y
dz/dt = xy - βz
При определенных значениях параметров (σ = 10, ρ = 28, β = 8/3) система демонстрирует хаотическое поведение, а её траектория образует фигуру, напоминающую крылья бабочки.
Код:
Эта система демонстрирует "странный аттрактор" — траекторию, которая никогда не пересекает сама себя, не повторяется, но остается в ограниченной области пространства. Если взять две почти идентичные начальные точки (разница всего 0.001), их траектории сначала движутся почти одинаково, но затем полностью расходятся — наглядная визуализация эффекта бабочки❤️ .
Так, теория хаоса устанавливает фундаментальные ограничения на нашу способность предсказывать будущее. Идея в том, что если мы с Вами сейчас находимся в матрице, которая полностью подчиняется прописанным законам, мы никогда не сможем измерить начальные условия с бесконечной точностью (наши приборы не умеют так), а значит, не сможем предсказать отдаленное будущее сложных систем❌ .
Поэтому ругать метеорологов бессмысленно, ахах. Просто всегда берите с собой зонтик, ведь теперь знаете чуть больше.
Спасибо каждому👋 👋 .
Когда речь заходит про этот эффект, часто говорят про бабочку и ураган. Звучит это примерно так: может ли взмах крыльев бабочки в Москве вызвать торнадо в Техасе (на самом деле бабочка тут неспроста, читайте до конца)? Об этом можно пофантазировать, представить, что все в нашей жизни связано, а каждое, даже самое незначительное действие, запускает каскад других, которые могут вылиться в нечто большее
Я подумал, если наша вселенная — симуляция, можно ли написать достоверный прогноз погоды на месяц вперед? Или предсказать другие, более простые вещи. Например, я бросаю мяч
Лоренц описал своё открытие системой трех дифференциальных уравнений:
dx/dt = σ(y - x)
dy/dt = x(ρ - z) - y
dz/dt = xy - βz
При определенных значениях параметров (σ = 10, ρ = 28, β = 8/3) система демонстрирует хаотическое поведение, а её траектория образует фигуру, напоминающую крылья бабочки.
Код:
import numpy as np
import matplotlib.pyplot as plt
from scipy.integrate import solve_ivp
from mpl_toolkits.mplot3d import Axes3D
sigma, rho, beta = 10, 28, 8/3
def lorenz_system(t, xyz):
x, y, z = xyz
dx_dt = sigma * (y - x)
dy_dt = x * (rho - z) - y
dz_dt = x * y - beta * z
return [dx_dt, dy_dt, dz_dt]
initial_conditions = [1.0, 1.0, 1.0]
t_span = (0, 40)
t_points = np.linspace(t_span[0], t_span[1], 10000)
solution = solve_ivp(lorenz_system, t_span, initial_conditions,
t_eval=t_points, method='RK45')
fig = plt.figure(figsize=(10, 8))
ax = fig.add_subplot(111, projection='3d')
ax.plot(solution.y[0], solution.y[1], solution.y[2], lw=0.5, c='blue')
ax.scatter(initial_conditions[0], initial_conditions[1],
initial_conditions[2], color='red', s=30, label='Начало')
ax.set_noscript('Аттрактор Лоренца ("Эффект бабочки")')
plt.show()
initial1 = [1.0, 1.0, 1.0]
initial2 = [1.001, 1.0, 1.0] # Отличие всего на 0.001!
solution1 = solve_ivp(lorenz_system, t_span, initial1, t_eval=t_points)
solution2 = solve_ivp(lorenz_system, t_span, initial2, t_eval=t_points)
plt.figure(figsize=(12, 6))
plt.plot(t_points, solution1.y[0], 'b-', label='Траектория 1')
plt.plot(t_points, solution2.y[0], 'r-', label='Траектория 2')
plt.noscript('Расхождение траекторий с почти идентичными начальными условиями')
plt.legend()
plt.show()
Эта система демонстрирует "странный аттрактор" — траекторию, которая никогда не пересекает сама себя, не повторяется, но остается в ограниченной области пространства. Если взять две почти идентичные начальные точки (разница всего 0.001), их траектории сначала движутся почти одинаково, но затем полностью расходятся — наглядная визуализация эффекта бабочки
Так, теория хаоса устанавливает фундаментальные ограничения на нашу способность предсказывать будущее. Идея в том, что если мы с Вами сейчас находимся в матрице, которая полностью подчиняется прописанным законам, мы никогда не сможем измерить начальные условия с бесконечной точностью (наши приборы не умеют так), а значит, не сможем предсказать отдаленное будущее сложных систем
Поэтому ругать метеорологов бессмысленно, ахах. Просто всегда берите с собой зонтик, ведь теперь знаете чуть больше.
Спасибо каждому
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
LoFiCoder
🎮Game of Life: как математическая игра объясняет возникновение сложности
В 1970 году британский математик Джон Конвей создал игру, которая стала одной из самых важных моделей в науке о сложных системах. Game of Life демонстрирует фундаментальный принцип…
В 1970 году британский математик Джон Конвей создал игру, которая стала одной из самых важных моделей в науке о сложных системах. Game of Life демонстрирует фундаментальный принцип…
❤13🔥5🦄2⚡1👍1
Здесь крутой видосик из кода выше, визуализирующий уравнения Лоренца об эффекте бабочки.
А тему поста угадал мой преданный подписчик @nebois9. Канала у него нет, но не отметить угадавшего я не могу. Публично выражаю ему благодарность за интерес к моему творчеству и стараниям👍
#код_вселенной👨🚀
А тему поста угадал мой преданный подписчик @nebois9. Канала у него нет, но не отметить угадавшего я не могу. Публично выражаю ему благодарность за интерес к моему творчеству и стараниям
#код_вселенной
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16❤🔥2⚡2👌2👍1🔥1👾1