LoFiCoder 👨🏼‍💻💎 – Telegram
LoFiCoder 👨🏼‍💻💎
1.7K subscribers
177 photos
24 videos
11 files
45 links
Антибиохакер 🦾


Надеюсь, Вам здесь понравится, обнимаю❤️

https://news.1rj.ru/str/+qi3--HrUQKE1MTgy
Download Telegram
Здесь крутой видосик из кода выше, визуализирующий уравнения Лоренца об эффекте бабочки.

А тему поста угадал мой преданный подписчик @nebois9. Канала у него нет, но не отметить угадавшего я не могу. Публично выражаю ему благодарность за интерес к моему творчеству и стараниям 👍

#код_вселенной 👨‍🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
16❤‍🔥22👌2👍1🔥1👾1
Всем привет! Надеюсь, что у вас всё хорошо, дорогие 👍

Завтра продолжим философскую тему яблок 👊

Можете также угадывать, о чем будет речь на этот раз. Автора или его канал с наиболее близким вариантом, также отмечу.

Удачной недельки 😶🐱
Please open Telegram to view this post
VIEW IN TELEGRAM
16🔥4🥰4
🍎 Яблоки и мое честное признание

Всем привет, дорогие. Нас становится все больше, и я этому очень рад. Но с этим ростом, расчет и моя ответственность перед нами. Я надеюсь, что этот пост будет полезен не только мне, но и вам.

А начать хочется с того, что я готов признать, что я зависим от брендов и их позиционирования. Я работаю над этим, мне кажется, что пик пройден, но какое-то влияние имени фирмы на мое поведение и решения я все равно чувствую. Хотелось бы избавиться от этого полностью, чтобы быть свободным и не испытывать груз от мыслей, что у тебя телефон или машина не той "модной" модели. Как говорится, понимание проблемы — половина решения. Теперь мне стало интересно разобраться в чем причина, откуда это берется? Это же реальное бремя, которое накидывают на себя миллионы людей и тащат порой до конца жизни, не получая никакого удовлетворения от нее, ведь соревнование бесконечно. А наша с вами цель — жить счастливо. Поэтому заканчиваем болтовню, погнали ломать шаблоны вместе ☕️

Когда Эпл показывает, как все вокруг пользуются этими стильными, минималистичными, красивыми и дорогими айфонами, появляется желание присоединиться, верно? Но что, если этот механизм, заставляющий нас следовать за большинством, можно превратить из инструмента манипуляции в личную стратегию достижения целей? В прошлый раз, на примере бойцовского клуба, мы разобрались, как Эпл продает образы. Сегодня копнем глубже и посмотрим на фундаментальный механизм, лежащий в основе потребительского поведения — принцип социального доказательства. Он объясняет, почему мы автоматически считаем правильным то, что делают другие люди. Наш мозг эволюционировал в племенных сообществах, где изгнание означало смерть (я ученый, верьте мне). Поэтому в нашей нейробиологии глубоко закодирован страх отвержения и стремление соответствовать группе. Когда мы видим, что большинство делает определенный выбор, наш мозг выделяет дофамин — мы испытываем удовольствие от ощущения принадлежности и "правильности". Поэтому отзывы, рейтинги и оценки так влияют на наши решения, а вирусные тренды распространяются с невероятной скоростью. Парадокс современного общества в том, что мы одновременно стремимся быть индивидуальными и принадлежать к группе. Мы хотим выделяться, но не слишком. Это противоречие создает идеальную почву для манипуляций — от маркетинговых кампаний до социального давления. Но что, если использовать это знание не как жертва, а как стратег? Начать осознанно создавать собственные "круги социального доказательства".

Первый шаг — окружение.
Если вы хотите начать бегать по утрам, найдите сообщество бегунов. Когда ваш мозг видит, что все вокруг бегают, сопротивление новой привычке резко падает. Использование его природных механизмов для достижения целей.

Второй шаг — публичность.
Когда вы объявляете о своих намерениях публично, включается тот самый древний страх отвержения. Страх потерять лицо становится мощным мотиватором. Именно поэтому публичные челленджи и марафоны так эффективны.

Третий шаг — создание видимости.
И это самый тонкий и крутой момент. Когда вы начинаете документировать свой прогресс (прямо как я сейчас, кстати), делиться результатами, вы создаете собственное социальное доказательство. Другие начинают видеть в вас пример, и их реакция усиливает вашу мотивацию. Круг замыкается — вы становитесь тем самым "большинством" для кого-то еще.
Но здесь кроется ловушка. Легко потеряться в погоне за одобрением, превратив средство в цель. Когда лайки становятся важнее результата, а имидж важнее сути, вы снова становитесь жертвой механизма, только на более изощренном уровне.
Истинное мастерство в балансе внутреннего компаса.

Хочется пожелать вам выбирать круги влияния осознанно, а не по инерции. И помните, самое сильное социальное доказательство, это когда ваши действия вдохновляют других не потому, что вы следуете трендам, а потому, что создаете их.
В конце концов, вопрос не в том, будете ли вы подвержены влиянию — мы все социальные существа. Вопрос в том, выберете ли вы это влияние сами или позволите случайности и алгоритмам решать за вас.

Споки ноки 💘
Please open Telegram to view this post
VIEW IN TELEGRAM
22👍5❤‍🔥3🔥3👏2🏆2🕊1
Всем привет! 😆

Сегодня делаем пост. По традиции отмечу канал того, кто угадает, о чем он будет 🙂

Был небольшой перерывчик — много работы. Всем доброй недели 🌻
Please open Telegram to view this post
VIEW IN TELEGRAM
14🔥4👏4🦄2
Фракталы: бесконечная сложность из простых правил 🌧

#код_вселенной

Начнём с простого вопроса: какова длина берега Британии? Звучит как школьная задача, однако ответ зависит от того, какой «линейкой» Вы измеряете его: километровой — получаете одно значение, метровой — большее, миллиметровой — ещё большее. Причина не в неточности учёта, а в том, что природа устроена иначе, чем нас учили в школе. Реальность не состоит из гладких линий и идеальных кругов евклидовой геометрии.

Когда математик Бенуа Мандельброт в 1975 году ввел термин "фрактал", он открыл новый способ понимания сложности. Оказалось, что многие природные структуры — от береговых линий до легких человека — следуют удивительным математическим закономерностям. В строгом математическом смысле фрактал характеризуется дробной хаусдорфовой размерностью, которая строго превышает его топологическую размерность. Звучит сложно? Давайте разберем на примере:

🥺Линия имеет топологическую размерность 1
🐱Плоскость — размерность 2
🐱Обычный объем — размерность 3

Фракталы же "застревают" между этими целочисленными измерениями. Например, знаменитая кривая Коха, несмотря на то что является линией, имеет размерность приблизительно 1.26, что делает её "больше чем линия, но меньше чем поверхность". Граница множества Мандельброта имеет гаусдорфову размерность ровно 2 (строго доказано Шишикурой в 1991 году), что означает максимальную сложность — она "заполняет" двумерную область, оставаясь топологически одномерной кривой.

PS: если говорить по-русски, то это геометрическая структура, обладающая самоподобием — каждая часть статистически или точно повторяет целое. И сколько бы вы не приближали рисунок он будет состоять из частей, подобных целому изображению. То есть, по сути, быть бесконечным в каком-то смысле. Это позволяет оптимизировать площадь под рисунком, потому что он бесконечно детализирован, у него, грубо говоря, бесконечная граница (видосы ниже). Для простоты можете, как я уже выше обозначил представить себе береговую линию. С МКС она будет иметь один контур 🙂, с самолета — другой ✈️, с воздушного шара —третий (здесь смайлик не нашел). Причем это один и тот же берег. Но приближаясь к нему, мы видим новые и новые его витки.

🌸 Природа использует фракталы для оптимизации. Легкие человека имеют альвеолярную поверхность 50-140 м² (чаще ~70 м² — размер теннисного корта!) при объеме грудной клетки всего ~6 литров. Корневые системы следуют L-системам Линденмайера, а сосудистые сети — модели Вейбеля для максимального покрытия при минимальных энергозатратах.

Возможно, значительная часть сложности нашего мира действительно возникает из элегантных алгоритмов, работающих на разных масштабах — от квантового до космического 👨‍🚀. Природа оказалась гениальным "программистом", использующим рекурсивные структуры задолго до появления компьютеров. Сейчас же современные IT‑системы успешно используют принципы фрактальной геометрии: повторяющиеся блоки в ResNet обеспечивают глубоким нейросетям стабильное обучение и борьбу с исчезающим градиентом, а измерение дробной размерности текстур помогает в анализе данных — от различения оригиналов и подделок картин до выявления патологий на медицинских снимках и прогнозирования сбоев в сетевом трафике. А интернет вообще сам по себе фрактален...👫

В общем, если уйти немного в философию, иногда решение кроется в том, чтобы найти простое правило, которое, повторяясь, создает всю сложность.

Всем спасибо! Ниже будет код и видосы, полученные с помощью него. Вы можете скопировать его в Google Colab и поиграться со значениями прямо там. Если будет сложно — пишите. Хорошей недели ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
16🔥3🥰2❤‍🔥1
Кусочек кода с примером самоподобия для ваших экспериментов. Если его мало, пишите мне в лс, пришлю полную версию. #код_вселенной

Угадал тему поста автор этого канала: https://news.1rj.ru/str/+8AVJxo0Y_nc0NDIy. Очень приятно поддержать начинающего. Помню, когда у самого подписчиков еле 20-30 набиралось, был безумно благодарен за добрый комментарий или респект от других, более крупных, каналов. Ну и сейчас, конечно, тоже не откажусь от Вашей положительной реакции ❤️
!pip install matplotlib ipywidgets
from IPython.display import HTML, display
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.animation as animation

%matplotlib inline
plt.rcParams['animation.html'] = 'jshtml'
plt.rcParams['figure.figsize'] = [10, 8]

def mandelbrot_zoom_animation():
def mandelbrot(h, w, max_iter, zoom, center):
x = np.linspace(center[0] - 2/zoom, center[0] + 2/zoom, w)
y = np.linspace(center[1] - 2/zoom, center[1] + 2/zoom, h)
X, Y = np.meshgrid(x, y)
C = X + 1j*Y

Z = np.zeros_like(C)
M = np.zeros(C.shape)

for i in range(max_iter):
mask = np.abs(Z) <= 2
Z[mask] = Z[mask]2 + C[mask]
M[~mask & (M == 0)] = i

M[M == 0] = max_iter
return M

fig, ax = plt.subplots(figsize=(10, 10))

zoom_center = (-0.8, 0.156)

def animate(frame):
ax.clear()
zoom_level = 1.5 frame
max_iter = min(50 + frame * 2, 100)

mandel = mandelbrot(400, 400, max_iter, zoom_level, zoom_center)

extent = [
zoom_center[0] - 2/zoom_level, zoom_center[0] + 2/zoom_level,
zoom_center[1] - 2/zoom_level, zoom_center[1] + 2/zoom_level
]

ax.imshow(mandel, extent=extent, cmap='hot', origin='lower')
ax.set_noscript(
f'Множество Мандельброта — Зум x{zoom_level:.1f}\nБесконечное самоподобие!',
fontsize=14, color='white',
bbox=dict(boxstyle="round,pad=0.3", facecolor="black", alpha=0.7)
)
ax.set_xlabel('Re(c)', color='white')
ax.set_ylabel('Im(c)', color='white')
ax.tick_params(colors='white')
fig.patch.set_facecolor('black')
ax.set_facecolor('black')

anim = animation.FuncAnimation(fig, animate, frames=25, interval=300, repeat=True)
plt.close(fig)
return anim

anim = mandelbrot_zoom_animation()
display(HTML(anim.to_jshtml()))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
23🔥5🥰4❤‍🔥3
Всем привет! Пост сегодня 😊

По сложившийся традиции, кто угадает тему, того отмечу. Но в этот раз будет сложно (я сам не ожидал), если что простите, я не специально. В любом случае попытать удачу стоит.
Удачи, друзья 😘
Please open Telegram to view this post
VIEW IN TELEGRAM
10🤩6❤‍🔥2💘2🦄2
Случайна ли наша Вселенная и при чем тут машинное обучение?

Еще раз, всем доброго дня 🇲🇽 Недавно наткнулся на необычную статью о природе случайности. Ее идея зацепила меня, поэтому я решил не только поделиться ею, но и добавить некоторые размышления на эту тему, особенно с учетом современных подходов к искусственному интеллекту и моего интереса 🍿.

Что такое случайность?
Оксфордский словарь определяет случайность как "отсутствие закономерности или предсказуемости в событиях". Здесь ключевым моментом для понимания является то, что случайность больше связана с нашей способностью предсказывать, чем с самим событием. Самому событию как таковому все равно, оно просто происходит. А мы, как наблюдатели, уже трактуем, было оно для нас случайным (не предсказуемым) или очевидным (предсказуемым).

Для простоты представьте двух метеорологов. Один плохо учился в универе, и диплом ему написал чат джипити, а второй старался, чето делал и даже закончил сам без троек. Невежественный ленивый парень знает только, что в этом регионе дождь идёт 40% времени в году. Он скажет: "Вероятность дождя сегодня 40%". Умный и старательный дополнительно знает, что сейчас сухой сезон, и скажет: "Вероятность дождя сегодня всего 5%". Для первого ситуация кажется гораздо более случайной, чем для второго. Но само событие дождя не изменилось. Изменилось только количество информации для его предсказания.

Случайность через призму машинного обучения 🖥
Эта история с двумя метеорологами очень интересно перекликается с тем, как работает машинное обучение. Случайность можно рассматривать через призму трёх ключевых компонентов любой ML-системы:

🐾Входные данные (features) — информация, которую мы используем для предсказания. В примере с погодой это могут быть исторические данные, текущая влажность, атмосферное давление и т.д.
🐾Целевые данные (targets) — то, что мы пытаемся предсказать (пойдёт ли дождь, будет ли невыносимо жарко, штиль, шторм и т.д.)
🐾Модель — алгоритм или набор правил, преобразующий входные данные в предсказания

Чем лучше модель превращает входные данные в точные предсказания, тем меньше мы воспринимаем событие как случайное. Однако, даже топовые ML-модели сталкиваются с "необъяснимой дисперсией" — данными, которые невозможно предсказать. Может, это косвенно доказывает, что в мире действительно есть что-то фундаментально непредсказуемое, как мы обсуждали это раньше, когда программировали эффект бабочки и получили красивый видос 🦋.

"случайность" vs "Случайность"
Для описания этой мысли введем два понятия:
случайность (с маленькой буквы) — то, что не можем предсказать из-за недостатка информации
Случайность (с большой буквы) — то, что невозможно предсказать в принципе, даже с бесконечными знаниями

В ML это отражается в разнице между "уменьшаемой ошибкой" (исправляемой с большим количеством данных) и "неуменьшаемой ошибкой" (которая остаётся всегда).

Так случайна ли Вселенная?
Мы ежедневно создаём модели, которые успешно предсказывают многие явления: от погоды до поведения рынка. Значит, мир во многом причинно‑следственен. Но вопрос «есть ли части Вселенной, где причина отсутствует?» остаётся открытым. По логике, при любом устройстве пространства и времени (конечном или бесконечном) в момент «начала» Вселенная требовала события без причины — а значит, фундаментальной «Случайности». Понимание «маленькой» случайности помогает нам улучшать модели машинного обучения и точнее управлять процессами (сельское хозяйство, медицина, финансы). Размышления о «Большой» Случайности заставляют задуматься о границах человеческого знания и о том, как далеко мы можем продвинуться в объяснении мира.

Что думаете?

P.S. Если заинтересовала тема, вот ссылка на оригинальную статью.
P.P.S: никто тему не угадал, но была пара хороших предположений.

Всех обнял 😉.

#код_вселенной #СтроимИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍4🤔2👌2💯2🔥1
Ура! Нас 1000 🎸

Спасибо каждому, кто проявил интерес к каналу, поддержал, написал в лс добрые слова. Для меня очень важны ваши реакции, репосты, все вижу, все мониторю. Наверное, даже чересчур часто ‼️

Чтобы канал был поуютнее, я решил открыть комментарии. Теперь можно общаться там 🐱

Если канал Вам реально нравится, можете проголосовать за него по ссылке ниже. Мне будет приятно 🥰
https://news.1rj.ru/str/LoFiCoders?boost
Please open Telegram to view this post
VIEW IN TELEGRAM
33🎉9🦄4🏆3😎2
Разыгрываем Яндекс Станцию Лайт 2 🎉

Всем привет! Спасибо за ожидание. Возвращаюсь после перерыва не с пустыми руками. Спасибо за 1000, всем удачи в конкурсе 😘

Знаете ли вы, что Алиса умеет… сопереживать? Яндекс прокачал TTS-модуль (синтез речи), и голосовой помощник научился контекстно-зависимым эмоциям: удивляться, грустить, радоваться — прямо во время разговора.

Как это работает?
— NLU-модуль анализирует не только слова, но и настроение фразы (например, «Мне тяжело» → метка «грусть»).
— Нейросеть на основе актёрских записей подбирает интонацию, паузы и даже вздохи, меняя эмоцию внутри фразы.

Дарим такую станцию одному из вас!

Немного о нас:
🔹 «Данные решают» — канал от ИРИТ-РТФ, где специалисты рассказывают об IT, радиоэлектронике и технологиях без воды. Экспертное мнение, тренды, реальные истории успехов и провалов, а также возможности обучения — всё для вашего роста.
🔹 LoFiCoder — канал молодого учёного, решившего постигнуть код. Вместе объединяем IT и науку, продвигаем и участвуем в масштабном российском ML-проекте (по крайней мере, пытаемся), делимся программами с подписчиками, потому что для вас ничего не жалко, дорогие 👨🏼‍💻🫰🏻

Чтобы участвовать в розыгрыше, нужно:
— подписаться на каналы «Данные решают», LoFiCoder,
— нажать кнопку «Участвую!»,
— поделиться этим постом с другом.

Победитель будет объявлен 25 августа. Обнимаю! 🐱❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23166🎉3🤝2
Нейронауки и RL: как мозг и машины учатся методом проб и ошибок 🧑‍🏫

Каждый день мы принимаем тысячи решений. От простых: что съесть на завтрак 👨‍🍳, до сложных: какую карьеру выбрать 🖥. Но задумывались ли вы, как именно мозг учится принимать эти решения? И что общего между обучением мозга и современными алгоритмами искусственного интеллекта? Расскажу об обучении с подкреплением (Reinforcement Learning, RL) — области, где нейробиология встречается с машинным обучением.

Дофамин для машин 🔧
В 1990-х годах нейробиолог Вольфрам Шульц обнаружил нечто удивительное. Наблюдая за активностью нейронов в мозге обезьян, он заметил, что дофаминергические нейроны среднего мозга реагировали не просто на получение награды, а на разницу между ожидаемой и фактической наградой. Проще говоря, когда происходит что-то лучше, чем мы ожидали — выброс дофамина усиливается. Когда хуже — дофамин подавляется. Этот механизм — ключ к тому, как мы учимся на своих ошибках и успехах. Современные алгоритмы ИИ работают по схожему принципу, в основе которого алгоритм обучения с подкреплением — временной разности (Temporal Difference, TD).

Как учатся машины? 💪
Алгоритмы обучения с подкреплением работают очень похоже на наш мозг. Они тоже пытаются предсказать, какое действие принесет наибольшую награду, и корректируют свои предсказания, когда результат отличается от ожидаемого.
Возьмем, например, AlphaGo от DeepMind — ИИ, победивший чемпиона мира по игре го. Ее обучение строилось на простых сигналах награды: +1 за победу, -1 за поражение. Из этих простейших сигналов возникло глубокое понимание сложнейшей игры. Способность порождать сложное поведение из простых правил, демонстрируя эмерджентность, о которой мы писали ранее.

Почему мозг всё еще впереди? 🥕
Несмотря на все достижения, есть фундаментальное различие между RL в машинах и в мозге: эффективность обучения. Человеческий мозг может учиться на единичных примерах, а современным алгоритмам требуются миллионы попыток для освоения даже простых задач. Ребенок, один раз обжегшись о горячую плиту, запомнит этот урок навсегда. ИИ для такого вывода потребуется "обжечься" тысячи раз. Это "проблема выборочной эффективности" — один из главных вызовов современного ИИ.

Будущее: учиться учиться
Исследователи работают над алгоритмами, способными "учиться учиться" (мета-обучение). Как опытный человек быстрее осваивает новые навыки, опираясь на предыдущий опыт, так и продвинутый ИИ должен переносить знания из одной области в другую.
Другое направление — создание "внутренней модели мира" у ИИ 🐱. Это похоже на то, как мы мысленно представляем последствия своих действий, прежде чем их совершить. Такие модели позволяют планировать и принимать более обдуманные решения.
Возможно, именно на стыке нейронаук и машинного обучения мы найдем ответы на многие вопросы о природе интеллекта. Ведь в конечном счете и мозг, и ИИ решают одну задачу: как принимать оптимальные решения в сложном, неопределенном мире 👨‍🚀.
Всем спасибо за внимание! Если у вас есть вопросы — пишите в комментариях. Хорошей недели 👌
Please open Telegram to view this post
VIEW IN TELEGRAM
11🔥6👍5😎3🤔2🤯1
Media is too big
VIEW IN TELEGRAM
Впечатляет 👍

На днях нарыл вот такую ссылочку на сайт OpenAI c коллекцией примеров веб-приложений, которые созданы с GPT-5. Но суть не в этом. Если кликнуть на любой блок, то откроется демо программы и исходный промт.

На это стоит обратить внимание, так как здесь отлично видно, как правильно составленный промт напрямую влияет на результат. Ведь навыки грамотного промтинга — это не прихоть, а реальный инструмент продуктивной работы с ИИ. Можно глянуть, как общаются разработчики со своим детищем и учесть в своей работе. Так что чекайте, уверен, пригодится 👋
Please open Telegram to view this post
VIEW IN TELEGRAM
18🔥9👍6🤯4🥰2
Я с добрыми новостями ❤️

Нас стало

Поэтому с конца прошлого месяца я отсутствовал не просто в канале, а в телефоне вообще. Вероятно, в ближайшее время посты будут выходить пореже. Или они будут просто поменьше, например, как предыдущий. В общем, если что не теряйте меня. Я примеряю на себя новую важную роль 🧑‍🍼

Спокойной ночи, обнимаю 👋
Please open Telegram to view this post
VIEW IN TELEGRAM
76🔥20👍9🎉7❤‍🔥5💘2
Добрый вечер 📢

Хотите узнать, как клубника уничтожит Chrome 📱?

Если есть догадки о чем я, пишите в комментариях. Всех обнимаю 🍅
Please open Telegram to view this post
VIEW IN TELEGRAM
26🔥8🤯8🐳3
Всем привет! Провел клубничный тест 🍅

Как правильно догадался один из подписчиков в комментариях предыдущего поста речь пойдет о 🍓 Strawberry Browser 🍓 (не только в России бизнес и стартапы называют в честь ягод. Привет, WB).

Узнал про него случайно, но как узнал сразу захотел попробовать, хотя по натуре своей я достаточно консервативен. Очень привлекла одна фишка в реализации и подход создателей. Но об этом чуть позже.

Сначала немного теории: Strawberry — это первый в своем роде "агентский браузер" со встроенными ИИ-ассистентами, которые могут работать самостоятельно, пока вы занимаетесь другими делами. Внутри Клубники работает тот же движок, что и в Chrome. Это обеспечивает отличную совместимость с современными сайтами. То есть, все выглядит очень привычно, будто Вы сидите в слегка кастомизированном Хроме, и справа у Вас окошко с Компаньоном, которому Вы даете задачи по этой странице. И вот здесь начинается самое интересное...

Теперь самое крутое
Создатели сделали в браузере умных помощников, называемых "компаньонами" (Companions). Эти товарищи могут анализировать содержимое страниц и взаимодействовать с ними. И они реализованы просто гениально. Это цветные мультяшные человечки, каждый со своим уникальным навыком Вот они, слева направо:

Лора — универсальный помощник для повседневных задач
Камилла — исследует и анализирует ваших конкурентов
Денис — собирает и структурирует информацию с сайтов
Линус — автоматизирует работу с профессиональной сетью
Ноэль — помогает с созданием и управлением рассылками
Уильям — обнаруживает ошибки на сайтах и помогает с их обслуживанием.

😍 Кроме того, вы можете создавать собственных компаньонов для любых специфических задач (выбираете внешку, даете имя), обучая их через демонстрацию или даже с помощью видеоинструкций. Они могут анализировать содержимое страниц и взаимодействовать с ними.

Я пока поработал только с Лорой. Она реально очень умная, у нее есть стиль, хороший вкус. У меня есть все основания так полагать, потому что ей понравился наш канал, а это говорит о многом (на фотке ее комментарий, хоть и нейронка, а все равно приятно, ей Богу). А если серьезно, то она достаточно качественно проанализировала другие 45 существующих каналов с IT-тематикой и дала мне сравнительную таблицу достоинств и недостатков каждого из них. С цифрами по просмотрам, подписчикам, реакциям итп. Правда, на это ушло 27 минут. Однако обзор литературы она все равно пишет, как школьный доклад. Но это она в базе, думаю, можно будет натренировать на нужный стиль. Да, говорят, что Компаньоны учатся и адаптируются под Ваши задачи.

Бесплатно дают 200к кредитов в месяц. Вчера, за мои тесты я потратил 46к... 😭 Как оказалось тратятся они легко, лимит достигается быстро. Если хотите больше (800к) — 20$ в месяц.

👍 В целом, браузер мне очень зашел. В основном благодаря своему необычному и качественно реализованному подходу. Думаю, это может задать свой тренд в этой области. Если заинтересовало пробуйте (ссылочка), учите ваших Компаньонов решать задачи, рассказывайте друзьям.

Понравился ли Вам формат тестов? Хотели бы еще подобные небольшие разборы нейроновинок? Если да, ставьте реакции на пост, пишите коммы. Для меня это лучшая обратная связь. Обнимаю Вас ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥9🤩4🥰3🤯2❤‍🔥1💘1
Те самые компаньоны и гениальность Лоры* 👨‍💻
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14🥰5😍32❤‍🔥1