С новым годом, етить его на право! 🎄
Понимаю, что про это говно не написал только очень ленивый. И я прям не хотел про него писать, потому что нейробесие и вот это все уже поперек горла стоит и булькает. Но блин, я не могу не написать.
Короче, ChatGPT можно использовать в качестве советника для составления имен для доменных сущностей. Я попробовал спросить эту штуку, как мне лучше назвать класс для составного продукта – CompoundProduct или CompositeProduct и вот что он мне ответил. (смотри на скрине)
Для меня это частично решает проблему глоссария: когда выбираешь между похожими по смыслу определениями при занесении новой записи. Всегда хочется спросить совета, как будет точнее. И кажется, что нейронка как нельзя лучше подходит для такого вопроса.
#chatgpt #инструменты
ПС Понятно, что это пока все ненадежное и после каждого такого ответа нужен дополнительный анализ, но тем не менее!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
⚖️ Равновесие Нэша и конфликты в команде
Если не смотрели фильм “Игры разума” с Расселом Кроу, то обязательно посмотрите, а после просмотра обязательно погуглите про “Равновесие Нэша”.
Это довольно несложная теорема, которая говорит о том, что в абсолютно ЛЮБОЙ конечной игре есть такое состояние игроков, когда они не могут увеличить свой выигрыш. Более того, равновесием Нэша называется такое состояние, когда по сути весь набор игроков находится в проигрышном положении.
Простым языком – в любой игре может сложиться так, что все игроки будут "жрать говно", хотя если оба одновременно постараются, то могут перестать это делать.
Давайте на такой схеме рассмотрим. У нас есть игрок 1 и игрок 2. И они в положении 4:
1) Оба не жрут говно
2) Игрок 1 жрет, а Игрок 2 не Жрёт
3) Игрок 2 жрет а Игрок 1 не Жрёт
4) Оба жрут говно
Тут все будут жрать говно. Почему? Да потому что переход в состояние 1 возможен только через состояние, когда один из игроков выбрался из говна (2 или 3), а это обидно для другого игрока, и он всеми силами будет тащить второго игрока обратно.
🤔 Смекаете? Ситуация, думаю, более чем знакомая. И, как мы теперь понимаем, математически неотвратимая.
💩Теперь к конфликтам в команде.
Конфликт в команде, это состояние, когда все жрут говно. В чем задача талантливого лидера в таком случае? Перевести одновременно всех в состояние 1. Но знаете в чем фишка? Математику не обманешь, кто-то все равно будет жрать говно…
🅰️(UPD)Прикладное значение: Думал, писать или не писать. Но все же решил дописать.
Зная о существовании этой теормы, вы можете сделать две штуки. Ну во первых создать себе таблицу выходов из такой ситуации. А во вторых смириться, что скорее всего вам придется принять на себя удар при переставлении команды в оптимальное состояние.
(UPD2)Еще важно, что это работает только для игр “все против всех”. То есть есть еще возможность решить конфликт, попытавшись перевести игру из условия “все против всех”, в условия, “все друг другу помогают”. Тогда возможны более приятные расклады.
#процессы
Если не смотрели фильм “Игры разума” с Расселом Кроу, то обязательно посмотрите, а после просмотра обязательно погуглите про “Равновесие Нэша”.
Это довольно несложная теорема, которая говорит о том, что в абсолютно ЛЮБОЙ конечной игре есть такое состояние игроков, когда они не могут увеличить свой выигрыш. Более того, равновесием Нэша называется такое состояние, когда по сути весь набор игроков находится в проигрышном положении.
Простым языком – в любой игре может сложиться так, что все игроки будут "жрать говно", хотя если оба одновременно постараются, то могут перестать это делать.
Давайте на такой схеме рассмотрим. У нас есть игрок 1 и игрок 2. И они в положении 4:
1) Оба не жрут говно
2) Игрок 1 жрет, а Игрок 2 не Жрёт
3) Игрок 2 жрет а Игрок 1 не Жрёт
4) Оба жрут говно
Тут все будут жрать говно. Почему? Да потому что переход в состояние 1 возможен только через состояние, когда один из игроков выбрался из говна (2 или 3), а это обидно для другого игрока, и он всеми силами будет тащить второго игрока обратно.
🤔 Смекаете? Ситуация, думаю, более чем знакомая. И, как мы теперь понимаем, математически неотвратимая.
💩Теперь к конфликтам в команде.
Конфликт в команде, это состояние, когда все жрут говно. В чем задача талантливого лидера в таком случае? Перевести одновременно всех в состояние 1. Но знаете в чем фишка? Математику не обманешь, кто-то все равно будет жрать говно…
🅰️(UPD)Прикладное значение: Думал, писать или не писать. Но все же решил дописать.
Зная о существовании этой теормы, вы можете сделать две штуки. Ну во первых создать себе таблицу выходов из такой ситуации. А во вторых смириться, что скорее всего вам придется принять на себя удар при переставлении команды в оптимальное состояние.
(UPD2)Еще важно, что это работает только для игр “все против всех”. То есть есть еще возможность решить конфликт, попытавшись перевести игру из условия “все против всех”, в условия, “все друг другу помогают”. Тогда возможны более приятные расклады.
#процессы
🔥2👍1
Пояснительные дикпики 1 и 2
#kafka
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔1
Кажись у меня появилась энергия даже на такую душную тему, как кафка.
Мы в прошлый раз изучали, как устроено хранение данных на брокере – сегменты и партиции. Теперь рассмотрим, как брокер управляется с этим добром и как консьюмер общается с брокером.
🚸 Начнем с того, что кафка работает по TCP и использует свой бинарный протокол. Как он работает?
1️⃣ Когда консьюмер подключается к брокеру, он посылает в него запрос на поиск нужного оффсета: void seek(TopicPartition, offset). Есть еще seekToBeginning или seekToEnd, они работают почти так же, только ищут по времени, а не по оффсету.
2️⃣ Брокер находит нужный оффсет.
3️⃣ Консьюмер вызывает метод poll(timeout) и начинает консьюмить.
(Пояснительный дикпик 1)
🅰️ Как брокер быстро находит нужный оффсет? Понятное дело по индексу. Обычно индекс кажется загадочной структурой, которая магически ускоряет всё в этой жизни, но на деле это тупо файл.
Мне проще разбирать штуки на конкретных примерах, поэтому представим, что нам пришел запрос seek() с параметрами TopicPartition = "configured-topic-0" и offset = 1.
(Пояснительный дикпик 2)
Так и работают индексы в кафке. Индексы по времени устроены так же, только мы лезем в файл с расширением .timeindex.
Мне было прикольно во всем этом разобраться, но возможно я где-то накосячил. Так что не стесняйтесь в комментариях или личке писать мне всякие критические доводы по этому посту. А в следующий раз я думаю разобрать механизмы реплицирования топиков.
#kafka
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
🏇Недавно прошёл Red Dead Redemtion 2. Прохождение заняло 60 часов чистого времени и три месяца в целом.
Игра невероятна! Столько пищи для размышлений я давно не получал. Словно прочитал какой-нибудь многотомный эпос. Да и по времени, кстати, так и выходит. Единственный момент в том, что в игре дохрена каких-то новых для меня английских слов.
Казалось бы что тут такого – стопнулся, кинул в переводчик и продолжаешь играть. Но у меня это вызвало своего рода компульсивное расстройство – хотелось слово выучить и как-то отследить, что я его выучил.
Так я начал мутить себе телеграм-бота переводчика, который умеет заносить слова в словарь, а потом гонять по ним квизы.
Прикольный и небольшой проект, на котором я решил лишний раз Clean Architecture паттерн (хер его знает, паттерн ли это или типа такая структура проекта просто). Заодно подтянул своего хорошего друга Сашу Коновалова на настройку инфраструктуры, ибо мне возиться со всеми этими деплоями лень, а он вроде как недавно курсы девопса прошёл (а не как я Red Dead Redemption).
Собственно, поэтому я сюда и не писал. Что-то увлекся этим ботом и допиливанием фич по нему, а еще за этот месяц с помощью него выучил 124 новых слова.
🅰️ Тут я хочу поделиться репозиторием, который будет полезен, если хотите посмотреть:
1️⃣ Как по-быстрому настроить деплой на сервак с докером по коммиту в мастер
2️⃣ Как настроить секреты, чтобы они не лежали в репе
3️⃣ И как настроить оплату в телеге через нативный телеговский виджет.
4️⃣ Ну и хз, можете подсмотреть еще архитектуру бота. Там много что есть еще что допиливать с технической стороны, но мне что-то лень, я сейчас в основном фичи новые пилю. (
5️⃣ Чуть позже хочу сделать там еще запись в логи через Loki, это чтобы можно было смотреть их прям в графане и не деплоить и не лазить в кибану.
Секретный пункт 6️⃣
Самого бота пока не рекламирую, так как он в стадии пре-альфа тестирования. Но в ридмихе репозитория ссылка есть, так что можете опробовать, если хотите.
#петпроекты #cleanarchitecture
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
По минутам.
Прорекламирую сегодня один крутой канал, который по минутам воспроизводит события ровно в год назад.
Я такое уже видел про революцию 1917 года, только там суть была в том, что все события показывались как твиты поэтов, философов и общественных деятелей тех лет. Идея была в том, чтобы современным языком показать события тех лет. А тут язык не так важен, как важно скорее помочь воспроизвести и отрефлексировтаь эмоции тех дней.
А еще эти ребята на одной конфе делали доклад о том, как они справлялись с повышенными нагрузками, и как они за год сделали и сам проект и всю инфру под него. Я правда сам доклад уже хрена с два найду, но тем не менее, делали его профессионалы.
Возвращаясь к “По минутам” Не знаю, всем ли подойдет такое чтиво. Оно заставляет окунуться в 24-ое февраля снова, только теперь со всеми теми знаниями о будущем, что мы успели увидеть за год.
Для себя я за этот год увидел, что большинство людей против этой войны, что те кто кажется сторонником, зачастую просто напуган, и скорее сбит с толку, чем реально хочет кому-то зла. И тогда 24-го февраля, наверное это понимание мне немного бы помогло бояться меньше, и говорить с близкими чуть больше.
Ну и наконец, надеюсь, что через год этот ад прекратится и везде наступит мир. Всем мира!
#нетвойне
Прорекламирую сегодня один крутой канал, который по минутам воспроизводит события ровно в год назад.
Я такое уже видел про революцию 1917 года, только там суть была в том, что все события показывались как твиты поэтов, философов и общественных деятелей тех лет. Идея была в том, чтобы современным языком показать события тех лет. А тут язык не так важен, как важно скорее помочь воспроизвести и отрефлексировтаь эмоции тех дней.
А еще эти ребята на одной конфе делали доклад о том, как они справлялись с повышенными нагрузками, и как они за год сделали и сам проект и всю инфру под него. Я правда сам доклад уже хрена с два найду, но тем не менее, делали его профессионалы.
Возвращаясь к “По минутам” Не знаю, всем ли подойдет такое чтиво. Оно заставляет окунуться в 24-ое февраля снова, только теперь со всеми теми знаниями о будущем, что мы успели увидеть за год.
Для себя я за этот год увидел, что большинство людей против этой войны, что те кто кажется сторонником, зачастую просто напуган, и скорее сбит с толку, чем реально хочет кому-то зла. И тогда 24-го февраля, наверное это понимание мне немного бы помогло бояться меньше, и говорить с близкими чуть больше.
Ну и наконец, надеюсь, что через год этот ад прекратится и везде наступит мир. Всем мира!
#нетвойне
🕊5❤1
Рубрика задротские штучки.
Если вы заглядывали в репозиторий TraleBot’а, то видели там метод IsApplicable у каждой команды. Этот метод в тупую проверяет пользовательский ввод, и, если тот подходит под условия, то вызывается метод Execute у команды.
Я подумал, что было бы круто как-то ускорить все эти проверки, и вспомнил, что когда-то давно на одной работе тимлид советовал мне переписывать большие if'ы на Expression Tree. Тогда я поверил, что это всё ускоряет и вопросов не задавал, а сейчас решил проверить, а реально ли оно быстрее работает?
🅰️ Оказалось и правда быстрее. К примеру вот такое выражение
return person != null && person.Name != null && person.Age < 9;Оказалось примерно в два раза медленее, чем аналгичное скомпилированное ExpressionTree (тут неполный код, чисто для примера):
var hasNameAndAge = Expression.AndAlso(
Expression.AndAlso(
objectNotNull,
hasNameNotNull),
hasAgeLessThanParam);
SimpleCodeScenario: 2.662 ns
ExpressionsScenario: 1.213 ns
И вот я пока что-то ХЗ почему так.
P.S: код самого бенчмарка я загнал в sharplab.io, про который когда-то давно рассказывал. Вот ссылочка на него
Может кто-то знает ответ, почему так? Напишите в комменты или мне в личку, а то я так по форумам поискал, но что-то внятного ничего не нашел. Только пост на StackOverflow, где люди нашли ту же зависимость, но внятно ответить, почему так не смогли.
#петпроекты #бенчмарки
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
🌴 Expression Trees. Часть 2
Пока искал причину, почему Expression Tree работает быстрее, решил проверить, а что быстрее pattern matching выражения или обычные операторы сравнения?
🅰️ И офигеть, но pattern matching выражения реально быстрее! То есть все эти подсказочки райдера, это еще и нехилая такая оптимизация, а не просто синтаксический опиум для народа!
Вышли вот такие данные:
Кто-то, конечно, скажет, что это всего две наносекунды, но разница в 10 раз – это разница в 10 раз.
#бенчмарки
Пока искал причину, почему Expression Tree работает быстрее, решил проверить, а что быстрее pattern matching выражения или обычные операторы сравнения?
🅰️ И офигеть, но pattern matching выражения реально быстрее! То есть все эти подсказочки райдера, это еще и нехилая такая оптимизация, а не просто синтаксический опиум для народа!
[Benchmark]
public bool SimpleCodeScenario()
{
return person != null && person.Name !=null && person.Age < 9;
}
[Benchmark]
public bool PatternMatchingExpressionScenario()
{
return person is {Name: {} , Age : < 9 };
}Вышли вот такие данные:
SimpleCodeScenario 2.5764 ns
PatternMatchingExpressionScenario 0.2032 ns
Кто-то, конечно, скажет, что это всего две наносекунды, но разница в 10 раз – это разница в 10 раз.
#бенчмарки
🔥2🌚1
🌴 Pattern Matching.
Знаете, вот эта штука с увеличенной скоростью паттерн матчинга становится для меня еще более загадочной.
Я только что прогнал оба варианта кода через Sharplab.io чтобы посмотреть какой шарповый код сгенерирует компилятор и знаете что, вот так он выглядит:
Вот так:
В целом ничего не поменялось, ну кроме разве что копирование переменной для тред-сейфности добавилось, ну и привидение к типу object. Наверное в этом и кроется вся загадка.🦆
#бенчмарки
Знаете, вот эта штука с увеличенной скоростью паттерн матчинга становится для меня еще более загадочной.
Я только что прогнал оба варианта кода через Sharplab.io чтобы посмотреть какой шарповый код сгенерирует компилятор и знаете что, вот так он выглядит:
Вот так:
public bool PatternMatchingExpressionScenario()
{
PersonRecord personRecord = person;
return (object)personRecord != null && personRecord.Name != null && personRecord.Age < 9;
}В целом ничего не поменялось, ну кроме разве что копирование переменной для тред-сейфности добавилось, ну и привидение к типу object. Наверное в этом и кроется вся загадка.
#бенчмарки
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🤓1
🌴 Pattern Matching 2: Паттерн-матчинг и тайны перфоманса.
Так, вроде докопался до сути. Если просто прикопать персону
То ничего не изменится. Но если добавить каст к объекту, то производительность выправится
🅰️А если долго смореть IL код, то (IL код начнет смотреть в ответ ) можно увидеть, что вот такой вариант, приведением к объекту приводит к тому, что объект person кладется на стек всего один раз, а в случае с отсутствием такого каста, при каждой проверке условия объект будет класться на стек заново. То есть в первом случае его положат на стек аж три раза, а во втором случае всего один.
Дело раскрыто, ducktective Димас удоляется на выходные.🦆
P.S.: И, да, какой же топовый инструмент sharplab.io! Без него в таком душном деле, как без рук. Всем советую.
#бенчмарки
Так, вроде докопался до сути. Если просто прикопать персону
var personCopy = person; [Benchmark]
public bool SimpleCodeScenario()
{
var personCopy = person;
return personCopy != null && personCopy.Name != null && personCopy.Age < 9;
}То ничего не изменится. Но если добавить каст к объекту, то производительность выправится
[Benchmark]
public bool SimpleCodeScenarioWithCast()
{
var personCopy = person;
return (object)personCopy != null && personCopy.Name != null && personCopy.Age < 9;
}🅰️А если долго смореть IL код, то (
Дело раскрыто, ducktective Димас удоляется на выходные.
P.S.: И, да, какой же топовый инструмент sharplab.io! Без него в таком душном деле, как без рук. Всем советую.
#бенчмарки
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉2👍1🤩1🌚1
Короче, у меня есть охуенная новость, которую я не могу сдержать.
Там всё как два пальца, но есть нюанс – примеры кода либо на ноде либо на питоне. Для бывалых не проблема, но для шарповых любителей – как минмум неудобство.
🅰️ Но не спешите прокрастинировать! Короче, сели вчера с Саней Коноваловым и в четыре руки запилили пример для оного туториала на шарпе! https://github.com/Undermove/openai-quickstart-csharp
Теперь ничто не остановит вас от изучения ChatGPT Api. Отмазок больше нет!
PS Есть одно маленькое но. Для взаимодействия с API используется бибилиотечка https://github.com/OkGoDoIt/OpenAI-API-dotnet которая пока что не поддерживает модель gpt3.5-turbo, но скоро её добавят – это дело одного вечера на самом деле и если не терпится, то можете форкнуться и добавить сами. ПР на добавление там уже висит и думаю, что на следующей неделе уже дойдет до релиза.
PPS Ну и втрепите звезду что ли моему репозиторчику, а мне будет притяно
PPPS Распространите 🗣
#openai #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒2🤩1
Короче, я очень часто имею свое мнение, а посему дохера спорю. И в спорах я чаще всего остаюсь при своем мнении.
Весь последний год я потратил на то, чтобы научиться продвигать свои решения даже там, где меня
Сегодня прочитал историю чувака по имени Нараян Писапати, который в Индии в городе Хайдарабаде обнаружил, что уровень грунтовых вод стал охуеть как снижаться.
Дело было в том, что фермеры, которые всю жизнь выращивали просо, вдруг стали выращивать рис. Оно и понятно, ибо рис стоил в 60 раз дороже, а государство щедро субсидировало электричество для юных натуралистов.
Будучи экологом, Нараян забил тревогу, но окружающие забили на Нараяна. Он попытался продвигать свои доклады через политиков, но это тоже не возымело успеха.
И вот тут Нараян показал, что не лыком шит! Вместо того, чтобы обвинить весь мир в непонимании, он подумал, а что если каким-то образом поднять спрос на просо?
В итоге он убил целый выводок зайцев одним выстрелом: придумал одноразовые приборы из просо. И пластиковое загрязнение снизил и грунтовые воды вернул на место и деньжат подзаработал.
Короче, хочу мыслить, как Нараян!
История взята из статьи: "Воплощение прорывных идей" Сирил Буке, Жан-Луи Барсу, Майкл Вейд.
#harvardbusinessreview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥2🤔2
Блин, простите, сейчас будет несмешная штука, но я не могу её не запостить.
Если у вас у программистов есть Дональд Кнут, то почему нет Дональда Пряника? И, если такие здоровенные книги пишет Дональд Кнут, то какие тогда книги мог бы писать Дональд Пряник?
Простите еще раз. 🍪
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚5🦄2
Не знаю как вы, а я обожаю кофе. Злоупотребляю эспрессо, варю колд-брю, чтобы штырило и прошу бариста намутить мне самую горькую кофеиновую таблетку.
Всю свою жизнь я думал, что эспрессо это самый лютый способ заварки, но челики с канала Russian Barista тут сделали фееричный видос, в котором прогнали разные способы заварки через лабораторию и посмотрели что к чему.
🅰️ В общем, я сделал для вас таблицу, чтобы вы не тратили времени на просмотр видоса. На первом месте кофеиновый король – гейзерная кофеварка
1️⃣ Гейзерная кофеварка 15,34 мг кофеина на 100 г кофе (почему-то в этом пункте измерение ведется не так как в остальных, да к тому же в видосе это значение меняется на граммы, короче, намудрил монтажер что-то)
2️⃣ Американо полным проливом 11,07 мг на 1 грамм зерна
3️⃣ Суперавтоматическая кофемашина 10,56 на 1 г зерна (они тестили в какой-то рожковой типа такой)
4️⃣ Лунго примерно как суперавтоматическая кофемашина (авторы не показали результат, видимо его сожрала реклама)
5️⃣ Фильтр-кофе 9,68 мг на 1 г зерна
6️⃣ Аэропресс 9,21 мг на 1 г зерна
7️⃣ Колд-брю 8,31 на 1 г зерна
8️⃣ Френч-пресс 7,48 мг на 1 г зерна
9️⃣ Эспрессо 7,33 мг на 1 г зерна
🔟 Ристретто 6,34 мг на 1 г зерна
По факту, эспрессо – это безалкогольное пиво от мира кофе. Значит не такой уж я и кофеман! Офигенно!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7😈1
🐑 Читшиты для прометеуса и не только.
Намедни впиливали с Саней Коноваловым метрики для Тралебота в графане и, пока копались, нашли неплохой чит-шит для запросов в Prometheus.
Читшит годный, покрывает много базовых метрик (да что уж там, покрывает больше, чем мне нужно!).
🅰️ Я попользовался, пошел ставить звезду на гитхабе и увидел, что там так-то много еще годных читшитов. Там есть и по докеру и по куберу и по MySQL. Короче, довольно много быстрых и полезных подсказок. Горячо рекомендую.
Кстати, если сравнивать с самыми зазвездившимися репозиториями по топику cheetsheets, то этот мне зашел больше всех прям. Может просто по оформлению лёг как раз на мои потребности.
Абсолютно без стыда и зазрения совести шарахнул репозиторию звезду🙂 (если вам понравится, то тоже не стесняйтесь сыпать звездами) , занес в закладочки.
#инструменты
Намедни впиливали с Саней Коноваловым метрики для Тралебота в графане и, пока копались, нашли неплохой чит-шит для запросов в Prometheus.
Читшит годный, покрывает много базовых метрик (да что уж там, покрывает больше, чем мне нужно!).
🅰️ Я попользовался, пошел ставить звезду на гитхабе и увидел, что там так-то много еще годных читшитов. Там есть и по докеру и по куберу и по MySQL. Короче, довольно много быстрых и полезных подсказок. Горячо рекомендую.
Кстати, если сравнивать с самыми зазвездившимися репозиториями по топику cheetsheets, то этот мне зашел больше всех прям. Может просто по оформлению лёг как раз на мои потребности.
Абсолютно без стыда и зазрения совести шарахнул репозиторию звезду
#инструменты
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5🤩1
Делаю для тралебота небольшую систему достижений.
Пытаюсь найти, какие вообще примеры систем достижений уже существуют.
Иииииии…
Там есть кусок, от которого я аж привзвизгнул, как адский подсвинок:
The foundation for our data collection was over 1000 hours of participant observations of playing 9 games that have achievements in the Steam platform (www.steamcommunity.com), which facilitates the use of achievements for some 100 games at the time of writing.
То есть звучит так, что чуваки играли исключительно беспрестрасно и в научных целях. Мучались, бедолаги, но продолжали наблюдать, как кто-то получает ачивки.
Итого: Может показаться, что это бесполезная работа. Чисто, чтоб зачёт поставили. Но для меня как минимум было полезно для ознакомления с базовыми понятиями системы достижений: Trigger, Multiplier, Conditions, Rewards и так далее. Какие-то были очевидными, какие-то не очень. Но в любом случае, круто!
На картинке, схема из второй работы, где архитектура ачивок расписана подробнее.
#systemdesign
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🏆3❤🔥1
Короче, тут пошла такая пьянка, что все пишут и говорят про то, что ChatGPT может. И порой люди дают этой штуке бОльший кредит доверия, чем она заслуживает.
Поэтому я тут напишу о том, чего эта штука не может, почему так происходит и напишу, какие есть пути решения этих проблем (если это конечно вообще проблемы).
🐺 Если вы хотите разобраться в том, как работает ChatGPT и не боитесь математики, то у Стивена Вольфарама вышла большая статья о том, как работает ChatGPT.
Для тех же кто боится математики, я в серии мини-постов расскажу обо всём на пальцах, но буду ссылаться на статью Стивена Вольфрама.
☎️ Итак, начнем с того, что эта штука не может выдать вам список телефонов всех страховых компаний Батуми.
Для этого просто зададим этот вопрос в ChatGPT дважды.
В первом запросе компания GPI Holding имеет один адрес и номер телефона, а во втором она уже переехала в новое здание и сменила номер. То же самое произошло с компанией Aldagi BCI. Если вы погенерируете ещё немного, то она будет каждый раз генерировать всё новые и новые значения. В целом похожие друг на друга, но часто с небольшими отличиями.
Наверняка у вас возникнет возражение "Сеть обучена на данных до 2021 года", и вы правы, но ключевое слово здесь "обучена", а не "знает".
И это не баг, а фича и она кроется в самом названии проекта: Generative Pretrained Model (или как мы привыкли GPT).
То есть сеть может хорошо ГЕНЕРИРОВАТЬ, как могли бы выглядеть названия и телефоны страховых компаний в Батуми, но она не идет в какую-то невероятную базу внутри своих 100 гигабайт и не ищет там данные. Как же она делает это я напишу в следующих постах.
#chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡3🌚1
Это изображение первого сервера, на котором запускался ChatGPT. И я не шучу! На Nokia 3310 был настоящий прародитель сегодняшнего хайпоносца, а именно движок текстовых подсказок Т9.
В чём суть T9?
Мы берем три буквы, к примеру "стр"
У нас есть словарь из слов, начинающихся на эти три буквы:
Страх
Страница
Страна
Строка
Стритбол
Телефон пытался предложить продолжение слова, которое набирает пользователь и продолжить его автоматически чтобы сократить время ввода.
❓Как телефону догадаться, какое слово пользователь хочет ввести? Есть несколько способов.
Один из таких – взять языковой корпус и вычислить частоту употребляемости каждого из слов и выбирать самое употребляемое. Я тут сам выставил частоту употребляемости чисто для иллюстрации, но, думаю, суть вы уловили:
Страх 60%
Страница 70%
Страна 50%
Строка 55%
Стритбол 10%
Получается, что слово страница самое употребимое, мы его и предлагаем. Но что если пользователь баскетболист? Не всё время же подставлять ему строку, если он постоянно зовёт друзей играть в стритбол? (хотя Т9 этим грешил, чем нагенерил кучу мемов в моей жизни)
Мы можем запоминать выбор пользователя и вносить поправки в нашу таблицу. Скажем, накидывать по 20% после каждого введенного стритбола от пользователя. И со временем у стритбол у нас поднимется с колен до вершин списка.
Так вот. Что мы тут имеем? Мы имеем небольшую модель, в которой есть 6 слов и 1 нейрон, который мы постепенно тренируем выдавать нам слово Стритбол.
🅰️ Вот эти процентики напротив каждого слова, это по сути коэффициенты. Коэффициенты это и есть то из чего состоит модель в своей сути. То есть, когда мы говорим, что ChatGPT весит 100 Гб и содержит 175 миллиардов записей, это значит, что это текстовый файл в котором записано 175 миллиардов вот таких вот процентиков:
Страх 60%
Страница 70%
Страна 50%
Строка 55%
Стритбол 10%
Естественно не всё так просто. В следующей части я попытаюсь на пальцах объяснить, как это улучшить так, чтобы можно было генерить целые тексты, пусть и бессвязные, но похожие на правду.
#chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1😍1