Forwarded from karpov.courses
Возможно, вы заметили, что на нашем канале давно не проходили mock-собеседования c Валерием Бабушкиным, но мы решили исправить эту ситуацию!
14 июля в 19:30 (GMT+3) Валерий проведёт System Design интервью в прямом эфире! На повестке — дизайн системы сети заправок и ритейл-магазинов при ней. Ждём вас на трансляции :)
14 июля в 19:30 (GMT+3) Валерий проведёт System Design интервью в прямом эфире! На повестке — дизайн системы сети заправок и ритейл-магазинов при ней. Ждём вас на трансляции :)
YouTube
System Design с Валерием Бабушкиным | Собеседование | karpov.courses
Курс System Design: https://bit.ly/3XE0q1v
Возможно, вы заметили, что на нашем канале давно не проходили mock-собеседования c Валерием Бабушкиным, но мы решили исправить эту ситуацию!
14 июля в 19:30 (GMT+3) Валерий проведёт System Design интервью в прямом…
Возможно, вы заметили, что на нашем канале давно не проходили mock-собеседования c Валерием Бабушкиным, но мы решили исправить эту ситуацию!
14 июля в 19:30 (GMT+3) Валерий проведёт System Design интервью в прямом…
👍1💯1
Forwarded from Инвестируй и зарабатывай💰NO [SCAM]
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from LEFT JOIN
Chat Notebooks: ноутбуки Wolfram со встроенной языковой моделью 🧠
Идея ноутбуков, появившаяся на свет в 1987 (нет, мы сейчас не про те, что лэптопы!), за 36 лет своего существования оказала существенное влияние на рабочие процессы в науке о данных, став их неотъемлемой частью. И вот на днях взята новая веха: отныне, ноутбуки Wolfram дополняются функционалом для работы с языковой моделью.
В интерфейсе ноутбуков Wolfram появились «окошки» для общения с ИИ. В статье рассказывается о двух типах новых ноутбуков: ноутбуки с правами на чат (chat-enabled) и ноутбуки, управляемые с помощью чата (chat-driven). Вторые отличаются от первых тем, что для работы с ними не требуется прибегать к языку программирования Wolfram. Также любопытен тот факт, что ячейки чата в ноутбуке считываются ИИ последовательно, то есть, каждая последующая учитывает информацию из предыдущей, но не знает о последующей.
Другой особенностью Chat Notebooks является то, что искусственный образ, роль которого вы бы хотели, чтобы ИИ играл в общении с вами, может настраиваться на разных уровнях: вы можете указать роль ИИ для всей переписки в ноутбуке, а также задать отдельные образы внутри каждого отдельного чата.
В целом, Chat Notebooks похож на интеграцию ChatGPT в интерфейс ноутбуков Wolfram. Подробное руководство по работе с новшеством вы найдете в статье. А в комментариях мы приглашаем вас обсудить, какие другие сервисы нуждаются в интеграциии языковых моделей!
Идея ноутбуков, появившаяся на свет в 1987 (нет, мы сейчас не про те, что лэптопы!), за 36 лет своего существования оказала существенное влияние на рабочие процессы в науке о данных, став их неотъемлемой частью. И вот на днях взята новая веха: отныне, ноутбуки Wolfram дополняются функционалом для работы с языковой моделью.
В интерфейсе ноутбуков Wolfram появились «окошки» для общения с ИИ. В статье рассказывается о двух типах новых ноутбуков: ноутбуки с правами на чат (chat-enabled) и ноутбуки, управляемые с помощью чата (chat-driven). Вторые отличаются от первых тем, что для работы с ними не требуется прибегать к языку программирования Wolfram. Также любопытен тот факт, что ячейки чата в ноутбуке считываются ИИ последовательно, то есть, каждая последующая учитывает информацию из предыдущей, но не знает о последующей.
Другой особенностью Chat Notebooks является то, что искусственный образ, роль которого вы бы хотели, чтобы ИИ играл в общении с вами, может настраиваться на разных уровнях: вы можете указать роль ИИ для всей переписки в ноутбуке, а также задать отдельные образы внутри каждого отдельного чата.
В целом, Chat Notebooks похож на интеграцию ChatGPT в интерфейс ноутбуков Wolfram. Подробное руководство по работе с новшеством вы найдете в статье. А в комментариях мы приглашаем вас обсудить, какие другие сервисы нуждаются в интеграциии языковых моделей!
Forwarded from Программирование на Python | itpy 💻
Прежде чем приступить к следующему собеседованию, ознакомьтесь со следующими вопросами, которые могут задать на собеседовании. Если ответы даются вам легко, отлично; практика делает совершенным. Если вы обнаружите, что немного запинаетесь, все равно отлично; вы обнаружили области для улучшения.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤🔥1🔥1👀1
Forwarded from Черномырдин нашей психологии
Фейковые ссылки chatGPT
Каждый раз, когда я прошу chatGPT дать мне ссылку на какую-то основную обзорную работу в научной области, она выдаёт мне фейковые статьи. Выглядят как настоящие, но их тупо не существует!
Я понимаю, в целом, почему так происходит, но вот хорошее пошаговое расследование того, почему так получается на примере «самой известной экономической статьи».
Кратко:
1. ChatGPT учится по началу фразы оценивать вероятность возможных продолжений.
2. Если ты просишь её назвать самую известную статью в экономике, она, используя информацию из интернета, предсказывает самые вероятные слова, продолжающие запрос.
3. Самые частые слова в названии экономических статей: «economic» и «theory». Поэтому ответ будет начинаться с этих слов.
4. Самое вероятное слово, продолжающее эту последовательность - “history”. Получаем «A theory of economic history”.
5. Дальше выбирается самый вероятный (читай: цитируемый) автор в области экономики.
6. Самое популярное число авторов в экономических статьях – 2. Поэтому выбирается соавтор, который чаще всего появлялся в интернете (читай: цитировался) вместе с выбранным первым автором.
7. Журнал подбирается тот, в котором чаще всего печатался первый автор.
8. Год публикации подбирается более или менее из середины творческой биографии автора(ов).
P.S. Когда я в очередной раз жаловался на фейковые ссылки chatGPT, мне подсказали, что есть сервис, который выдает существующие ссылки по такому же свободному запросу – https://app.wordtune.com/editor/.
Каждый раз, когда я прошу chatGPT дать мне ссылку на какую-то основную обзорную работу в научной области, она выдаёт мне фейковые статьи. Выглядят как настоящие, но их тупо не существует!
Я понимаю, в целом, почему так происходит, но вот хорошее пошаговое расследование того, почему так получается на примере «самой известной экономической статьи».
Кратко:
1. ChatGPT учится по началу фразы оценивать вероятность возможных продолжений.
2. Если ты просишь её назвать самую известную статью в экономике, она, используя информацию из интернета, предсказывает самые вероятные слова, продолжающие запрос.
3. Самые частые слова в названии экономических статей: «economic» и «theory». Поэтому ответ будет начинаться с этих слов.
4. Самое вероятное слово, продолжающее эту последовательность - “history”. Получаем «A theory of economic history”.
5. Дальше выбирается самый вероятный (читай: цитируемый) автор в области экономики.
6. Самое популярное число авторов в экономических статьях – 2. Поэтому выбирается соавтор, который чаще всего появлялся в интернете (читай: цитировался) вместе с выбранным первым автором.
7. Журнал подбирается тот, в котором чаще всего печатался первый автор.
8. Год публикации подбирается более или менее из середины творческой биографии автора(ов).
P.S. Когда я в очередной раз жаловался на фейковые ссылки chatGPT, мне подсказали, что есть сервис, который выдает существующие ссылки по такому же свободному запросу – https://app.wordtune.com/editor/.
X (formerly Twitter)
David Smerdon (@dsmerdon) on X
Why does chatGPT make up fake academic papers?
By now, we know that the chatbot notoriously invents fake academic references. E.g. its answer to the most cited economics paper is completely made-up (see image).
But why? And how does it make them? A THREAD…
By now, we know that the chatbot notoriously invents fake academic references. E.g. its answer to the most cited economics paper is completely made-up (see image).
But why? And how does it make them? A THREAD…