LoFiCoder 👨🏼‍💻💎 – Telegram
LoFiCoder 👨🏼‍💻💎
1.7K subscribers
177 photos
24 videos
11 files
45 links
Антибиохакер 🦾


Надеюсь, Вам здесь понравится, обнимаю❤️

https://news.1rj.ru/str/+qi3--HrUQKE1MTgy
Download Telegram
ИИ VS ХАКЕРЫ

Искусственный интеллект сегодня — это и мощный инструмент защиты, и опасное оружие в руках злоумышленников. Мы поговорили с двумя экспертами, чтобы разобраться в этой непростой дилемме.

🔹 Автор канала LoFiCoder, дипломированный специалист, занимающийся написанием программ для исследовательских и технических задач, объяснил нам:
— Как ИИ вообще связан с кибербезопасностью?
— По каким принципам ИИ обнаруживает скрытые атаки?
— Возможно ли предсказание кибератак до их совершения?

🔹 Николай Домуховский, заместитель генерального директора по научно-технической работе, директор аналитического центра УЦСБ, рассказал о том:
— Как хакеры уже используют ИИ против нас?
— Какое будущее ждёт специалистов по безопасности?

Скорее читайте пост и делитесь своим мнением по этой теме!
8👾5🔥43❤‍🔥2
Всем привет! 👍

Дропну пост завтра. Пока можете попробовать угадать, о чем он будет 😶🐱

Всем качественного завершения выходных 🛀
Please open Telegram to view this post
VIEW IN TELEGRAM
20🐳4👍1🔥1🏆1
🎾 Эффект отскока. Настоящая цена "бесплатного" ИИ.

🏐Исследование 2024 года выявило, что ИИ в 40-150 раз эффективнее человека для аналогичных задач. Например, написание страницы качественного и грамотного текста человеком генерирует 1400г CO2, в то время как ИИ производит всего 2,2г. Казалось бы — прикольно. Однако легкость использования ИИ приводит к "эффекту отскока ⚽️" — мы начинаем использовать его для задач, которые раньше просто не выполняли. Заставляем его генерировать один и тот же текст, пока нам не понравится, вместо гугл-запроса спрашиваем у чат-бота итп. Хотя объективно, можно немного напрячь мозги и выполнить задачу даже быстрее самостоятельно 🏓.

🏀 В итоге из-за наших порой расточительных промтов (+ не здоровайтесь с ним и не благодарите его), ChatGPT ежедневно потребляет 1 ГВт⋅ч энергии — достаточно для питания 33 000 домохозяйств. Инфраструктура включает 28 936 GPU NVIDIA A100, каждый из которых содержит редкоземельные металлы: неодим, празеодим, церий и иттрий. Производство одного чипа требует 8-10 литров ультрачистой воды, а крупные заводы по производству полупроводников потребляют 38 миллионов литров воды ежедневно.

В общем, не хочу быть слишком душным. Помните, что каждый запрос имеет свою цену, которая может быть не так очевидна 🙂.

Всем хорошей и быстро рабочей недели 🏐
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯2413🗿3🔥1😱1👌1🤝1
Пост сегодня 🍿.

Давненько не было технических публикаций. Надо исправлять. Всех обнимаю ❤️.
Please open Telegram to view this post
VIEW IN TELEGRAM
15❤‍🔥4👍4
Начинаем новое важное путешествие 👨‍🚀

🚪 Этот пост открывает серию материалов, где мы пошагово разберём весь процесс создания нейросети — от идеи до рабочего продукта. Постараюсь все излагать техническим, но в то же время понятным русским языком.

Я думаю, что не меня одного будоражит эта тема. Мне хочется разобраться в ней глубже, понять внутрянку. Я подумал, что круто будет сделать это нам здесь всем вместе ❤️❤️❤️

Меня радует то, что сейчас, в 2025 году, можно сделать нейронку без огромных финансовых вложений благодаря готовым решениям. Не нужно обучать модель с нуля — можно взять предобученную (например, BERT для понимания текста или GPT для генерации) и доучить её под свою задачу. Это экономит месяцы работы. Но также требует определенного уровня знаний. Поэтому предупреждаю, просто не будет никому (ни мне, ни вам 😭). В доказательство этому читайте текст ниже.

💪 Первый кирпичик — данные.
Нейросети учатся на примерах, как студенты по учебникам. Для простых задач классификации нужно 10-50 тысяч примеров, для сложных — миллионы. Главное — качество и разнообразие данных. Необходимо убирать дубли, исправлять ошибки, следить за балансом классов. Если нужна разметка (например, для определения тональности текста), используйте инструменты вроде Label Studio или обращайтесь к краудсорсингу.

💪 Второй кирпичик — архитектура модели.
Это "мозг" нейросети. Сегодня доминируют Transformer-архитектуры — они хорошо работают с текстом, изображениями и другими данными. Не изобретайте велосипед: возьмите готовую модель с Hugging Face (там тысячи вариантов) и адаптируйте под задачу. Для экономии ресурсов присмотритесь к "маленьким" моделям вроде DistilBERT — они работают быстрее и требуют меньше памяти.

💪 Третий кирпичик — вычислительные ресурсы.
Нейросети требуют мощных видеокарт (GPU) для обучения. Варианты: арендовать в облаке (от 10 до 2000 зеленых в месяц, все зависит от сложности проекта) или купить RTX 4080/4090 для домашнего использования. Современные "компактные" модели могут работать даже на MacBook с чипом M3. Поэтому сделать домашнюю нейронку вполне реально.

💪 Четвёртый кирпичик — процесс обучения.
Используйте готовые фреймворки вроде PyTorch или TensorFlow — они автоматизируют большую часть работы. Типичный процесс: загрузили данные, выбрали предобученную модель, настроили параметры обучения (learning rate, batch size), запустили fine-tuning. Следите за метриками в реальном времени с помощью Weights & Biases или TensorBoard (ставь лайк, если пока тоже ниче непонятно).

💪 Пятый кирпичик — оценка результатов.
Проверяйте модель на новых данных, которые она не видела при обучении. Для классификации смотрите на accuracy и F1-score, для генерации текста — на perplexity. Важно понимать, где модель ошибается и почему. Используйте инструменты объяснимости (SHAP, LIME), чтобы понять логику решений модели.

💪 Шестой кирпичик — развёртывание.
Готовую модель нужно сделать доступной пользователям. Простейший вариант — Hugging Face Inference API (несколько кликов). Для большего контроля используйте FastAPI + Docker. Не забывайте про мониторинг, следите за производительностью и качеством предсказаний, обновляйте модель по мере поступления новых данных.

Если Вы дочитали до сюда и Вам интересно во всем этом разобраться, то добро пожаловать. Я буду только рад, если Вам это также вкатывает как и мне. Когда с этим справимся, полезем глубже 🐱.

Мне самому немного страшно браться за такое большое и сложное начинание, но усердие и труд все перетрут, так что погнали (посты серии будут с этим тегом #СтроимИИ 🤨).

Всем удачи! Очень рад, что сообщество растет и мы с вами тоже, дорогие ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
21👍9❤‍🔥4🔥3🤯2
Всем привет 🐱

Готовы к новенькому посту? Как думаете, про что он будет? 🔨
Please open Telegram to view this post
VIEW IN TELEGRAM
11🔥3🥰2
Да что такое ваш АПИ?!

API (Application Programming Interface)
— это невидимый мост 🔨, соединяющий разные программы и сервисы, позволяя им болтать друг с другом без участия человека. Представьте себе официанта в ресторане 🍷: Вы выбираете блюдо из меню, он передаёт заказ на кухню и приносит готовое угощение 🐟. В нашей цифровой “кухне” меню — это документация API, запросы и ответы — те самые блюда, а HTTP‑протокол выступает в роли официанта.

Корни API уходят в первые операционные системы 1960–70‑х годов, когда программисты впервые получили набор функций для работы с файлами и устройствами 🖥. Но настоящий взлёт пришёл с вебом и публикацией в 2000 году диссертации Роя Филдинга, описавшей стиль REST. С тех пор RESTful API, использующие методы GET, POST, PUT и DELETE, стали стандартом для обмена данными в формате JSON и XML.

Почему API так важны? Во‑первых, они обеспечивают модульность и переиспользование. Так, написав интерфейс один раз, вы открываете его десяткам клиентов — мобильным приложениям 😶, веб‑сайтами 😶, микросервисам 😶 — без лишнего дублирования кода. Во‑вторых, API дарят автоматизацию. Роботы и скрипты способны запускать процессы по расписанию — от публикации постов в социальных сетях до управления умным домом, избавляя Вас от жеской рутины. В‑третьих, вокруг API выстраивается целая экономика — корпорации вроде Twitter, ой, X , Google и Amazon продают доступ к своим данным и вычислительным ресурсам, а стартапы создают уникальные интеграции и расширения, превращая интерфейсы в самостоятельный источник дохода.

Сейчас такие мосты соединяют нас не только с классическими API 🙂, но и с самыми продвинутыми нейросетями. Представьте, что Вы ведёте бизнес. А значит, находитесь в среде, где каждый день идёт борьба за внимание, ресурсы и время. Скорость становится конкурентным преимуществом: тот, кто быстрее запускает продукт, тестирует идеи или отвечает клиентам, выигрывает. Здесь на сцену выходит нейросетевой конструктор — простая оболочка над мощными ИИ-моделями вроде GPT‑4. Вместо того чтобы вручную формулировать запросы, настраивать параметры и копировать ответы, Вы просто выбираете нужную задачу — «написать письмо», «сформировать отчёт», «обработать отзыв» — и вводите ключевые данные. Всё остальное происходит автоматически: система сама формирует запрос, запускает ИИ, получает результат и сразу отправляет его в нужный инструмент — CRM, документы, рассылку. Все ускоряется, ребята, не знаю хорошо это или плохо 😐.

Всем неторопливых выходных. Спасибо Вам 💘
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥5❤‍🔥3👾21👍1🤝1
Всем привет! 🐱

Я сегодня долго спал и собирал клубнику с красной смородиной 🌸. А как у Вас суббота? Если вы тоже в шоке от того, как быстро летят выходные ставьте лайк ❤️.

Постик завтра. Смотрите на картинку и пишите, о чем он будет. Если угадаете, отмечу Ваш канал в публикации 🥰. Вот такой вот интерактив придумал буквально сейчас, пока писал этот текст.

Подсказка: будет #код_вселенной (одна из любимых моих рубрик) 👨‍🚀

Если хотите меня поддержать, делитесь этим каналом. Мне будет очень приятно. Всем любви и теплого лета, обнимаю каждого ❤️❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
18❤‍🔥3👍2🔥2
Теория хаоса: эффект бабочки и предсказуемость вселенной 🦋

Когда речь заходит про этот эффект, часто говорят про бабочку и ураган. Звучит это примерно так: может ли взмах крыльев бабочки в Москве вызвать торнадо в Техасе (на самом деле бабочка тут неспроста, читайте до конца)? Об этом можно пофантазировать, представить, что все в нашей жизни связано, а каждое, даже самое незначительное действие, запускает каскад других, которые могут вылиться в нечто большее . После таких размышлений складывается ощущение, что действительно, тот вклад бабочки в формирование воздушных потоков может повлиять на прогноз погоды в другой части света. Почему нет? - Тем более мы с Вами уже знаем про явление эмерджентности — когда множество простого порождает нечто сложное 🧑‍🏫.
Я подумал, если наша вселенная — симуляция, можно ли написать достоверный прогноз погоды на месяц вперед? Или предсказать другие, более простые вещи. Например, я бросаю мяч 🐱. Зная его начальную скорость, угол броска, сопротивление воздуха, я могу предсказать куда он приземлится, верно? Оказывается невсегда. Теория хаоса объясняет, почему иногда невозможно предсказать даже то, что полностью подчиняется четким законам физики 🐱.

🐝 В 1960-х годах метеоролог Эдвард Лоренц обнаружил удивительное явление. Округлив значение в расчетах с 0.506127 до 0.506, он получил совершенно другие результаты при повторном запуске модели атмосферы. Так родилась концепция "чувствительной зависимости от начальных условий" — эффект бабочки (математически будет очень красиво).

Лоренц описал своё открытие системой трех дифференциальных уравнений:
dx/dt = σ(y - x)
dy/dt = x(ρ - z) - y
dz/dt = xy - βz

При определенных значениях параметров (σ = 10, ρ = 28, β = 8/3) система демонстрирует хаотическое поведение, а её траектория образует фигуру, напоминающую крылья бабочки.
Код:

import numpy as np
import matplotlib.pyplot as plt
from scipy.integrate import solve_ivp
from mpl_toolkits.mplot3d import Axes3D

sigma, rho, beta = 10, 28, 8/3

def lorenz_system(t, xyz):
x, y, z = xyz
dx_dt = sigma * (y - x)
dy_dt = x * (rho - z) - y
dz_dt = x * y - beta * z
return [dx_dt, dy_dt, dz_dt]

initial_conditions = [1.0, 1.0, 1.0]
t_span = (0, 40)
t_points = np.linspace(t_span[0], t_span[1], 10000)
solution = solve_ivp(lorenz_system, t_span, initial_conditions,
t_eval=t_points, method='RK45')

fig = plt.figure(figsize=(10, 8))
ax = fig.add_subplot(111, projection='3d')
ax.plot(solution.y[0], solution.y[1], solution.y[2], lw=0.5, c='blue')
ax.scatter(initial_conditions[0], initial_conditions[1],
initial_conditions[2], color='red', s=30, label='Начало')
ax.set_noscript('Аттрактор Лоренца ("Эффект бабочки")')
plt.show()

initial1 = [1.0, 1.0, 1.0]
initial2 = [1.001, 1.0, 1.0] # Отличие всего на 0.001!
solution1 = solve_ivp(lorenz_system, t_span, initial1, t_eval=t_points)
solution2 = solve_ivp(lorenz_system, t_span, initial2, t_eval=t_points)

plt.figure(figsize=(12, 6))
plt.plot(t_points, solution1.y[0], 'b-', label='Траектория 1')
plt.plot(t_points, solution2.y[0], 'r-', label='Траектория 2')
plt.noscript('Расхождение траекторий с почти идентичными начальными условиями')
plt.legend()
plt.show()


Эта система демонстрирует "странный аттрактор" — траекторию, которая никогда не пересекает сама себя, не повторяется, но остается в ограниченной области пространства. Если взять две почти идентичные начальные точки (разница всего 0.001), их траектории сначала движутся почти одинаково, но затем полностью расходятся — наглядная визуализация эффекта бабочки ❤️.

Так, теория хаоса устанавливает фундаментальные ограничения на нашу способность предсказывать будущее. Идея в том, что если мы с Вами сейчас находимся в матрице, которая полностью подчиняется прописанным законам, мы никогда не сможем измерить начальные условия с бесконечной точностью (наши приборы не умеют так), а значит, не сможем предсказать отдаленное будущее сложных систем .

Поэтому ругать метеорологов бессмысленно, ахах. Просто всегда берите с собой зонтик, ведь теперь знаете чуть больше.

Спасибо каждому 👋👋.
Please open Telegram to view this post
VIEW IN TELEGRAM
13🔥5🦄21👍1