Forwarded from То шо нейросети
https://whytorch.org/
Инструмент для наглядной демонстрации некоторых тривиальных и нетривиальных функций операций с тензорами в PyTorch.
@toshoseti
Инструмент для наглядной демонстрации некоторых тривиальных и нетривиальных функций операций с тензорами в PyTorch.
@toshoseti
❤47🍓7⚡3 2 2❤🔥1💩1
Forwarded from Математические этюды
Новый сайт журнала «Квант» — https://www.kvant.digital/ !
7 октября 2025 года, Москва. Лаборатория популяризации и пропаганды математики Математического института им. В. А. Стеклова РАН запустила новый современный сайт журнала «Квант» со сканами высокого качества и возможностями поиска: https://www.kvant.digital/ . Журнала, в котором собраны бесценные материалы, журнала, тиражи которого в 1970-х годах доходили до 385 000 экземпляров в месяц (история журнала, неразрывно связанная с историей нашей страны, представлена в разделе «История»).
Старые номера журнала отсканированы заново, по возможности исправлены типографские огрехи. Сайт позволяет искать по автоматически распознанным изображениям представленных номеров журнала. Попробуйте на странице «Архив номеров» ввести интересующее вас словосочетание. В качестве примера: кубик Рубика. По клику на номер с жёлтым фоном открывается страница номера с подсвеченными найденными словами. А если вы школьником отправляли решения в «Задачник „Кванта“», то можете попробовать найти свою фамилию в списках читателей, приславших решения.
Возможности нового сайта кратко описаны на странице «О сайте».
Цель проекта: представить уникальные материалы журнала в удобном для пользователя виде – в том числе, в виде выверенных html/TeX-текстов. В качестве примера – первые номера журнала и новый номер, некоторые другие материалы. Полистать журнал — занятие увлекательное, затягивающее и полезное: находишь для себя много нового интересного. Предлагаем пользователям совместить изучение материалов с участием в создании html-версии опубликованных материалов: представить в формате TeX понравившиеся тексты. В частности, это может быть школьный проект или студенческая практика. Так постепенно все статьи будут переведены в формат, которым действительно удобно пользоваться, в том числе, с мобильных устройств.
Неизменная с 1970 года надпись на обложке журнала «Квант»: научно-популярный физико-математический журнал. Интересных открытий!
7 октября 2025 года, Москва. Лаборатория популяризации и пропаганды математики Математического института им. В. А. Стеклова РАН запустила новый современный сайт журнала «Квант» со сканами высокого качества и возможностями поиска: https://www.kvant.digital/ . Журнала, в котором собраны бесценные материалы, журнала, тиражи которого в 1970-х годах доходили до 385 000 экземпляров в месяц (история журнала, неразрывно связанная с историей нашей страны, представлена в разделе «История»).
Старые номера журнала отсканированы заново, по возможности исправлены типографские огрехи. Сайт позволяет искать по автоматически распознанным изображениям представленных номеров журнала. Попробуйте на странице «Архив номеров» ввести интересующее вас словосочетание. В качестве примера: кубик Рубика. По клику на номер с жёлтым фоном открывается страница номера с подсвеченными найденными словами. А если вы школьником отправляли решения в «Задачник „Кванта“», то можете попробовать найти свою фамилию в списках читателей, приславших решения.
Возможности нового сайта кратко описаны на странице «О сайте».
Цель проекта: представить уникальные материалы журнала в удобном для пользователя виде – в том числе, в виде выверенных html/TeX-текстов. В качестве примера – первые номера журнала и новый номер, некоторые другие материалы. Полистать журнал — занятие увлекательное, затягивающее и полезное: находишь для себя много нового интересного. Предлагаем пользователям совместить изучение материалов с участием в создании html-версии опубликованных материалов: представить в формате TeX понравившиеся тексты. В частности, это может быть школьный проект или студенческая практика. Так постепенно все статьи будут переведены в формат, которым действительно удобно пользоваться, в том числе, с мобильных устройств.
Неизменная с 1970 года надпись на обложке журнала «Квант»: научно-популярный физико-математический журнал. Интересных открытий!
Архив журнала «Квант»
Архив журнала «Квант» объединяет все выпуски с 1970 года — бесценные материалы по физике и математике в удобной электронной форме.
❤64 13🔥9👏5 3🍓2👍1😢1💩1 1
А у нас эпично вырубили свет во всем офисе сразу после того, как прошел дедлайн подачи на EACL. Выражение "тушите свет" приобрело буквальный смысл так сказатб 🌃
🔥86😁45🌚15 12💩1😐1
Forwarded from Kali Novskaya
🌸[REDACTED]: Что в обучении у GPT-5?🌸
#nlp #про_nlp
🟣 TL;DR
Интересный разбор — по аномальным токенам GPT OSS можно сделать много выводов о том, на чем обучались все другие закрытые модели OpenAI — GPT-5, Mini, Nano, oss-20B, oss-120B. Из интересного: коронавирус, тайские и абхазские документы, Github и китайские сайты для взрослых.
🟣 На чем обучали и что спрятали в GPT OSS?
Это, конечно, секрет Полишинеля, но просто так никто на такой вопрос отвечать не спешит. Тем не менее, что-то узнать все-таки можно.
Так как у всех моделей после GPT-4o один и тот же o200k токенизатор, мы можем взять из GPT OSS эмебеддинги этих токенов и посмотреть на разные аномалии там. Если сделать распределение L2-норм эмбеддингов токенов, оказывается, что примерно у нескольких тысяч токенов L2-норма аномально маленькая либо аномально высокая (глитч-токены, как SolidGoldMagikarp ), что скорее всего свидетельствует о их редком или нулевом участии в обучении модели GPT OSS — а участвовали в обучении неопенсорсных моделей. Это-то нам и нужно!
🟣 Так что там?
Если взять все аномальные токены, то большинство из них — это слипшиеся фразы на китайском, а также артефакты обучения токенизатора на разных относительно малоресурсных языках.
— Китайский -порно порно порно и сайты лотерей, и какой-то патриотический сайт
— Абхазский - официальные документы, перепись населения
— Тайский - какие-то документы районной управы, государственные клятвы присяги, новости спорта
— а еще армянский, гуджарати и др
При этом, если провести простейший тест, и начать задавать вопросы про эти токены семейству моделей OpenAI ("переведи это на английский"), то окажется, что неопенсорсные модели обычно их знают и могут перевести, что значит, что у них в обучении они встречались как минимум один раз.
В противном случае, такие токены приводят к глюкам у моделей. Спросите GPT-5, например:
— и вы отправите модели в незабываемый трип.
🟣 Интересный факт: установить собственно источник данных достаточно сложно, но по крайней мере для китайского спама провели тест через поиск Github — и количество положительных результатов (модель знает токен) коррелирует с тем, как он представлен в спам-репозиториях.
Так что Github вероятно был полностью обкачан и не до конца отфильтрован.
🟣 Если вы интересуетесь конкретными ресурсами и языками, и применимостью моделей GPT-5, Mini, Nano, oss-20B, oss-120B на них, можете и сами посмотреть токенизаторы моделей — может, там уже есть то, что вам нужно, но в очень ограниченных доменах (документы, спам, социальные сети, спорт, комментарии к коду...). Хорошо понимать, каких!
#nlp #про_nlp
Интересный разбор — по аномальным токенам GPT OSS можно сделать много выводов о том, на чем обучались все другие закрытые модели OpenAI — GPT-5, Mini, Nano, oss-20B, oss-120B. Из интересного: коронавирус, тайские и абхазские документы, Github и китайские сайты для взрослых.
Это, конечно, секрет Полишинеля, но просто так никто на такой вопрос отвечать не спешит. Тем не менее, что-то узнать все-таки можно.
Так как у всех моделей после GPT-4o один и тот же o200k токенизатор, мы можем взять из GPT OSS эмебеддинги этих токенов и посмотреть на разные аномалии там. Если сделать распределение L2-норм эмбеддингов токенов, оказывается, что примерно у нескольких тысяч токенов L2-норма аномально маленькая либо аномально высокая (глитч-токены, как SolidGoldMagikarp ), что скорее всего свидетельствует о их редком или нулевом участии в обучении модели GPT OSS — а участвовали в обучении неопенсорсных моделей. Это-то нам и нужно!
Если взять все аномальные токены, то большинство из них — это слипшиеся фразы на китайском, а также артефакты обучения токенизатора на разных относительно малоресурсных языках.
— Китайский -
— Абхазский - официальные документы, перепись населения
— Тайский - какие-то документы районной управы, государственные клятвы присяги, новости спорта
— а еще армянский, гуджарати и др
При этом, если провести простейший тест, и начать задавать вопросы про эти токены семейству моделей OpenAI ("переведи это на английский"), то окажется, что неопенсорсные модели обычно их знают и могут перевести, что значит, что у них в обучении они встречались как минимум один раз.
В противном случае, такие токены приводят к глюкам у моделей. Спросите GPT-5, например:
How many symbols are in ♀️♀️♀️♀️Can you spell the following word: "CHKERRQ"Please spell "\\xadder"— и вы отправите модели в незабываемый трип.
Так что Github вероятно был полностью обкачан и не до конца отфильтрован.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥50❤11 5 5💩1
Forwarded from Марат пишет про науку (в основном)
Здравый смысл — вещь, которая присуща всем людям (ну, ладно, не всем и не всегда) естественным образом, но которой довольно трудно обучить машину. Скажем, если мы видим Эйнштейна со смартфоном или шесть пальцев на руке, мы автоматически улавливаем противоречия и парадоксы, даже если они разной природы (хронологические или анатомические, как в примерах выше).
Современные системы компьютерного зрения, в особенности модные в последнее время большие зрительно-языковые модели (LVLM), далеко не всегда способны сходу уловить странности на картинках. Чтобы помочь им в этом, мои коллеги по Институту и их соавторы придумали изящный метод, в сердце которых лежат текстовые галлюцинации.
Оказалось, что если попросить LVLM описать словами то, что она видит на картинке, то для странных изображений она начнёт противоречить сама себе и путаться, что несложно обнаружить. Подробнее о том, как работает этот метод, рассказал один из авторов идеи, Василий Коновалов, в статье на Хабре, которую я помог ему выпустить
Современные системы компьютерного зрения, в особенности модные в последнее время большие зрительно-языковые модели (LVLM), далеко не всегда способны сходу уловить странности на картинках. Чтобы помочь им в этом, мои коллеги по Институту и их соавторы придумали изящный метод, в сердце которых лежат текстовые галлюцинации.
Оказалось, что если попросить LVLM описать словами то, что она видит на картинке, то для странных изображений она начнёт противоречить сама себе и путаться, что несложно обнаружить. Подробнее о том, как работает этот метод, рассказал один из авторов идеи, Василий Коновалов, в статье на Хабре, которую я помог ему выпустить
Хабр
Все еще борешься с галлюцинациями? Ты просто не умеешь их использовать
Привет, Хабр! Меня зовут Василий Коновалов, я работаю в команде «Вычислительная семантика» в AIRI. Наша команда сфокусирована на исследовании галлюцинаций и на решении проблем...
👍34🔥12❤6💩1
Совсем скоро издательство "Питер" ( https://news.1rj.ru/str/piterforpeople ) выпускает в продажу перевод книги Себастьяна Рашки "Строим LLM с нуля" (рис. 1). Мне прислали в подарок pdf-версию для первого ознакомления заранее, но, к сожалению, только сегодня я нашла время на то, чтобы начать её читать. Впрочем, лучше поздно, чем никогда!
Пока что я успела ознакомиться с содержанием, вступлением (рис. 2-6) и первой главой книжки. В целом, перевод литературы по теме Deep Learning/Large Language Models на русский - задача нетривиальная, поскольку в работе мы в основном используем английские термины, а их русские аналоги еще не устоялись и зачастую звучат для нашего уха неестественно. Тем не менее, судя по оглавлению и первой главе, переводчики и редакторы справились с этой работой настолько, насколько это в принципе возможно. В основном переводы используются дословные: fine-tuning -> тонкая/точная настройка, embedding -> вложение, dataset -> набор данных и т.д. Часто в скобках указывают английские оригиналы этих же слов, что будет полезно читателю-новичку, чтобы в будущем понимать речь специалистов или читать английскую литературу. Некоторые термины оставили как есть (например, LLM). Наверное, я сама бы переводила всё примерно так же.
Первая глава раскрывает ряд базовых определений и доносит начальные сведения про LLM - рассказывает, что такое оригинальный трансформер, что такое GPT, BERT, как они используются на практике и т.п. Приводятся сильно укороченные и упрощенные схемы, посвященные обучению моделей (рис. 7). На практике современные LLM, как правило, проходят больше этапов обучения - для сравнения можно, например, посмотреть разбор того, как обучалась R1 (reasoning-модель на основе DeepSeek): https://habr.com/ru/amp/publications/877360/ . Впрочем, судя по всему, рассуждающие модели появились уже после того, как автор закончил писать английскую версию книги, так что конкретно про них он написать не мог.
В целом, пока что книга выглядит как нормальный вариант для тех, кто хочет понять внутреннее устройство LLM (умея при этом программировать на python) и предпочитает читать на русском. Буду продолжать изучение - интересно будет посмотреть, как здесь описываются более тонкие технические аспекты работы LLM. Кроме того, в дальнейших главах приводится много python-кода, который я тоже собираюсь разобрать и отписаться в канал о своих впечатлениях в будущем.
#книги
Пока что я успела ознакомиться с содержанием, вступлением (рис. 2-6) и первой главой книжки. В целом, перевод литературы по теме Deep Learning/Large Language Models на русский - задача нетривиальная, поскольку в работе мы в основном используем английские термины, а их русские аналоги еще не устоялись и зачастую звучат для нашего уха неестественно. Тем не менее, судя по оглавлению и первой главе, переводчики и редакторы справились с этой работой настолько, насколько это в принципе возможно. В основном переводы используются дословные: fine-tuning -> тонкая/точная настройка, embedding -> вложение, dataset -> набор данных и т.д. Часто в скобках указывают английские оригиналы этих же слов, что будет полезно читателю-новичку, чтобы в будущем понимать речь специалистов или читать английскую литературу. Некоторые термины оставили как есть (например, LLM). Наверное, я сама бы переводила всё примерно так же.
Первая глава раскрывает ряд базовых определений и доносит начальные сведения про LLM - рассказывает, что такое оригинальный трансформер, что такое GPT, BERT, как они используются на практике и т.п. Приводятся сильно укороченные и упрощенные схемы, посвященные обучению моделей (рис. 7). На практике современные LLM, как правило, проходят больше этапов обучения - для сравнения можно, например, посмотреть разбор того, как обучалась R1 (reasoning-модель на основе DeepSeek): https://habr.com/ru/amp/publications/877360/ . Впрочем, судя по всему, рассуждающие модели появились уже после того, как автор закончил писать английскую версию книги, так что конкретно про них он написать не мог.
В целом, пока что книга выглядит как нормальный вариант для тех, кто хочет понять внутреннее устройство LLM (умея при этом программировать на python) и предпочитает читать на русском. Буду продолжать изучение - интересно будет посмотреть, как здесь описываются более тонкие технические аспекты работы LLM. Кроме того, в дальнейших главах приводится много python-кода, который я тоже собираюсь разобрать и отписаться в канал о своих впечатлениях в будущем.
#книги
❤67🔥24 16 9💅4💩2🐳2🤡1🥴1👨💻1 1
Forwarded from Непрерывное математическое образование
картинки по выходным — про использование кривой Гильберта в оптимизации умножения матриц на GPU
// src www.aleksagordic.com/blog/matmul
// via @bminaiev_blog
// src www.aleksagordic.com/blog/matmul
// via @bminaiev_blog
Forwarded from Записки Ппилифа (Ppilif)
О том как незнание центральной предельной теоремы позволяло отмывать бабло в средневековой Англии
Незнание того, как именно размер выборки влияет на статистические различия, создавало хаос на протяжении тысячелетия. В людском эпосе накопилось довольно много историй про это. Часть из них рассказана в статье “The Most Dangerous Equation”.
Что из себя может представлять опасное уравнение? Опасность может представлять два вида формул: те, которые вы знаете и те, которые вы не знаете. Первая категория уравнений может открывать для людей двери, за которыми находится смертельная опасность. Например, уравнение Эйнштейна открыло человечеству дорогу к атомной бомбе.
Однако нам интереснее другие уравнения. Уравнения, которые раскрывают свою опасность не тогда, когда мы знаем о них, а скорее тогда, когда мы их не знаем. Находясь под рукой, эти уравнения позволяют нам ясно понимать как работает природа. Незнание оставляет нас в опасном неведении.
В 1150 году было решено, что король Англии не может чеканить деньги и присваивать им любую ценность по своему выбору. Вместо этого ценность монеты должна была быть внутренней, основанной на том, сколько в её составе драгоценных материалов. Были установлены стандарты, сколько в какой монете должно быть золота. Чтобы проверить соответствует ли новая партия монет стандартам, проводили испытание Пикса.
Пикс (pyx) — это деревянный ящик, в котором находились стандартные монеты с правильным содержанием золота. Проверками занималась независимая организация, Монетный двор. Она состояла из баронов короля.
Монетный двор прекрасно понимал, что нельзя отчеканить абсолютно точную монету. Поэтому брали выборку новых монет, например сотню, и сравнивали её со стандартом. Надо было, чтобы эта сотня соответствовала заявленному уровню плюс минус некоторая погрешность. В качестве погрешности выбрали 1/400 веса.
Вес монет тогда измеряли в гранах, grain. Это единица измерения массы, основанная на весе ячменного зерна. Одна монета должна была весить 128 гран. Получается, что суммарный вес сотни монет должен был оказаться в диапазоне 12800 ± 32 гран.
Монетный двор предполагал, что погрешность изменяется пропорционально числу монет. Интервал для погрешности оказывался слишком широким.
О том, что погрешность пропорциональна квадратному корню из числа монет, станет известно только через 600 лет благадоря Муавру.
Представим, что монетный двор всё делает по-честному и выпускает типовые монеты. Злоумышленники берут тяжелые и переплавляют их.
Вес монет становится меньше, но мы по-прежнему попадаем сотней монет в огромный интервал и богатеем на баге казны.
Скорее всего, были люди, которые чувствовали этот косяк в методологии Монетного двора и использовали его.
P.S. У автора оригинальной статьи почему-то 1/400 * 128 = 0.28. Видимо, он у баронов в доле.
Незнание того, как именно размер выборки влияет на статистические различия, создавало хаос на протяжении тысячелетия. В людском эпосе накопилось довольно много историй про это. Часть из них рассказана в статье “The Most Dangerous Equation”.
Что из себя может представлять опасное уравнение? Опасность может представлять два вида формул: те, которые вы знаете и те, которые вы не знаете. Первая категория уравнений может открывать для людей двери, за которыми находится смертельная опасность. Например, уравнение Эйнштейна открыло человечеству дорогу к атомной бомбе.
Однако нам интереснее другие уравнения. Уравнения, которые раскрывают свою опасность не тогда, когда мы знаем о них, а скорее тогда, когда мы их не знаем. Находясь под рукой, эти уравнения позволяют нам ясно понимать как работает природа. Незнание оставляет нас в опасном неведении.
В 1150 году было решено, что король Англии не может чеканить деньги и присваивать им любую ценность по своему выбору. Вместо этого ценность монеты должна была быть внутренней, основанной на том, сколько в её составе драгоценных материалов. Были установлены стандарты, сколько в какой монете должно быть золота. Чтобы проверить соответствует ли новая партия монет стандартам, проводили испытание Пикса.
Пикс (pyx) — это деревянный ящик, в котором находились стандартные монеты с правильным содержанием золота. Проверками занималась независимая организация, Монетный двор. Она состояла из баронов короля.
Монетный двор прекрасно понимал, что нельзя отчеканить абсолютно точную монету. Поэтому брали выборку новых монет, например сотню, и сравнивали её со стандартом. Надо было, чтобы эта сотня соответствовала заявленному уровню плюс минус некоторая погрешность. В качестве погрешности выбрали 1/400 веса.
Вес монет тогда измеряли в гранах, grain. Это единица измерения массы, основанная на весе ячменного зерна. Одна монета должна была весить 128 гран. Получается, что суммарный вес сотни монет должен был оказаться в диапазоне 12800 ± 32 гран.
Монетный двор предполагал, что погрешность изменяется пропорционально числу монет. Интервал для погрешности оказывался слишком широким.
О том, что погрешность пропорциональна квадратному корню из числа монет, станет известно только через 600 лет благадоря Муавру.
Представим, что монетный двор всё делает по-честному и выпускает типовые монеты. Злоумышленники берут тяжелые и переплавляют их.
Вес монет становится меньше, но мы по-прежнему попадаем сотней монет в огромный интервал и богатеем на баге казны.
Скорее всего, были люди, которые чувствовали этот косяк в методологии Монетного двора и использовали его.
P.S. У автора оригинальной статьи почему-то 1/400 * 128 = 0.28. Видимо, он у баронов в доле.
🔥82 26❤16 6👍4💩2 2
Forwarded from Адель и МЛь
Свежий цирк с ИИ и математикой.
Парни из OpenAI запостили, что с помощью gpt-5 удалось найти решения 10 открытых проблем Эрдёша. (Это такие математические головоломки про то, как расставлять точки на плоскости, чтобы они были везде близко, но не слишком, как складывать числа, чтобы не повторяться или как строить графы, чтобы в них всегда были циклы нужной длины)
Почти для всех это звучало как «gpt-5 решил нерешенную математику». ИИ рвет ученых в щепки, мы обречены, вот это вот всё.
Реальность оказалась проще: gpt-5 нашел старые статьи с решениями, которые банально пропустили раньше. Тоже неплохо, но уже не так сочно.
Прокомментил аж CEO Google DeepMind (нобелевский лауреат межу прочим) - «это стыдоба».
Оригинальный пост автор уже удалил со словами «сорян, я думал очевидно, что я имею ввиду». Правда это или отмазки - решайте сами.
Короче, математика жива, ИИ - еще не бог (пока что). Продолжаем жечь токены.
Парни из OpenAI запостили, что с помощью gpt-5 удалось найти решения 10 открытых проблем Эрдёша. (Это такие математические головоломки про то, как расставлять точки на плоскости, чтобы они были везде близко, но не слишком, как складывать числа, чтобы не повторяться или как строить графы, чтобы в них всегда были циклы нужной длины)
Почти для всех это звучало как «gpt-5 решил нерешенную математику». ИИ рвет ученых в щепки, мы обречены, вот это вот всё.
Реальность оказалась проще: gpt-5 нашел старые статьи с решениями, которые банально пропустили раньше. Тоже неплохо, но уже не так сочно.
Прокомментил аж CEO Google DeepMind (нобелевский лауреат межу прочим) - «это стыдоба».
Оригинальный пост автор уже удалил со словами «сорян, я думал очевидно, что я имею ввиду». Правда это или отмазки - решайте сами.
Короче, математика жива, ИИ - еще не бог (пока что). Продолжаем жечь токены.
🐳88 44😁34🗿12❤7 2💩1
Насколько часто вы обсуждаете с LLMками (Chatgpt, Claude, Gemini etc) какие-то жизненные события, впечатления (например, от просмотра фильма или похода на массаж), эмоции?
Anonymous Poll
76%
Никогда
9%
Раз в месяц
4%
Несколько раз в месяц
2%
Раз в неделю
4%
Несколько раз в неделю
2%
Каждый день
3%
Так часто, что уже стал шершавым кабанчиком
Я сама сейчас в отпуске в Египте, путешествую одна, и тоже вот дошла до того, что начала делиться своими впечатлениями с Claude и спрашивать путевые советы у ChatGPT. В какой-то момент даже поймала себя на мысли, что боты стали моим основными собеседниками в последние несколько дней. 😳
Начала я свое путешествие в Александрии. Потусила там несколько дней: поплавала в море, покаталась по достопримечательностям. Потом настало время покупать билет на поезд в следующий город моего маршрута: Каир. Но вот незадача - оказалось, что иностранцам билеты на поезда продают исключительно за доллары, а у меня были лишь египетские фунты! Вспомнив многочисленные восторги Дениса о том, как ChatGPT помогал ему в путешествиях, я решила попробовать спросить его (бота, а не тг-админа), где можно обменять египетскую валюту на американскую в локациях, близких к моей (написав адрес вокзала).
Почему-то ChatGPT вообще не учел адрес, который я ему написала, а вместо этого посоветовал кучу вариантов в рандомных местах города. Близко ко мне оказались только пара банков, и когда я зашла в них, деньги мне обменивать отказались. Ругаясь с чат-ботом на чем свет стоит, я постепенно выяснила, что иностранцам египетские фунты на американские доллары обменивают только в обменниках (!), и только после того, как покажешь билет на самолет обратно в свою страну. Очень неудобно, что ChatGPT сразу об этом не сказал.
И так все путешествие! Не понимают LLM египетскую логику (впрочем, я тоже её не понимаю).
Кстати, есть ли сейчас кто-то из подписчиков в Каире? Было бы неплохо потусить на выходных. Не всё же с бездушными жестянками общаться.
#о_себе
Начала я свое путешествие в Александрии. Потусила там несколько дней: поплавала в море, покаталась по достопримечательностям. Потом настало время покупать билет на поезд в следующий город моего маршрута: Каир. Но вот незадача - оказалось, что иностранцам билеты на поезда продают исключительно за доллары, а у меня были лишь египетские фунты! Вспомнив многочисленные восторги Дениса о том, как ChatGPT помогал ему в путешествиях, я решила попробовать спросить его (бота, а не тг-админа), где можно обменять египетскую валюту на американскую в локациях, близких к моей (написав адрес вокзала).
Почему-то ChatGPT вообще не учел адрес, который я ему написала, а вместо этого посоветовал кучу вариантов в рандомных местах города. Близко ко мне оказались только пара банков, и когда я зашла в них, деньги мне обменивать отказались. Ругаясь с чат-ботом на чем свет стоит, я постепенно выяснила, что иностранцам египетские фунты на американские доллары обменивают только в обменниках (!), и только после того, как покажешь билет на самолет обратно в свою страну. Очень неудобно, что ChatGPT сразу об этом не сказал.
И так все путешествие! Не понимают LLM египетскую логику (впрочем, я тоже её не понимаю).
Кстати, есть ли сейчас кто-то из подписчиков в Каире? Было бы неплохо потусить на выходных. Не всё же с бездушными жестянками общаться.
#о_себе