Магия данных | Артур Сапрыкин – Telegram
Магия данных | Артур Сапрыкин
906 subscribers
329 photos
57 videos
9 files
316 links
Канал Артура Сапрыкина.
- Основатель и CEO Maglosya (@maglosya)
- Создаю со своей командой AI/ML-проекты
- Преподаватель, автор курсов
- Исследователь ML и AI.

Сайт: https://arthursaprykin.ru/

По вопросам сотрудничества пишите мне: @arthur_saprykin
Download Telegram
Наступило время полезностей!

Мой хороший товарищ из Selectel написал оооочень объемную статью про источники, которые здорово изучить начинающему специалисту по машинному обучению.

Честно говоря, даже опытным будет полезно 😉

В ней содержатся источники знаний начиная с логики, заканчивая матаном.

Одно слово - полезно! ☀️
🔥10👍62
Друзья!
Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать?
Вот и я не останусь в стороне 😋

Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost

Спасибо ☺️
👍1
Есть ли жизнь после Трансформеров?

Друзья, кто-то из вас точно знает такую архитектуру нейронных сетей - трансформеры.
Эти блоки сейчас присутствуют практически (если не во всех) в каждой крупной и успешной нейронной сети.

И действительно, при грамотном применении и достаточном датасете, можно создавать чудесные и интересные проекты.
В своё время трансформеры произвели своего рода революцию в области нейронных сетей, и вот давайте порассуждаем, а что может появиться дальше?

Вот в блоках трансформера ключевая особенность в многоголовом самовнимании и позиционном кодировании за счёт чего может работать со всей последовательностью “одновременно”, как будто мы уже прочитали всё.

Что, по вашему мнению, должно изменить и продвинуть направление нейронных сетей и/или искусственного интеллекта?
Давайте пообщаемся ☀️

PS: Для тех, кто с трансформерами не знаком или плохо понимает, рекомендую изучить перевод статьи Jay Alamar про них. Очень ярко и доступно.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Магия данных | Артур Сапрыкин pinned «Друзья! Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать? Вот и я не останусь в стороне 😋 Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost Спасибо ☺️»
С праздником, товарищи 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣214🌚3👍2🎉2
Всем привет, друзья!

Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии.

На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам распознавать автоответчики и голосовых помощников до того, как начнётся тарификация звонка.

Будет полезно и интересно. Обязательно приходите, и не стесняйтесь подойти поздороваться ☀️😉
👍4🔥4
Достаточно интересные наблюдения насчёт того, чтобы вектора заменить хэшами.

Мне эта идея кажется интересной, и вполне реально, что в этом направлении будут успешные реализации.

Вообще, ещё интересней было бы, если хеши не просто сравнивали, а применяли бы внутри архитектуры нейронных сетей. Естественно, работая с несколько другими принципами взаимодействия с ними.

А то выходит, что те, кто готовит крупные модели, встречаются с дороговизной построения и обучения этих моделей. Кроме того, поддержка их тоже не дешевая.

Как-то анализировал возможность размещения LLama 2 70B для решения одной задачи, прикинул пользовательский поток на неё и скорость отдачи, и сразу понял, что нужно двигаться по другому пути. Поддержка стоит заметную копеечку.
👍4
🤣
🤣29👍4🌚2👎1🤔1😢1💯1
Очень полезные знания для NLPешников.
Сам в начале пути погрузился в лингвистику на небольшую глубину.

Пожалуй, прочитаю и этот материал. Уверен, будет полезно, и вам рекомендую ☺️
👍1
Хороший мини-курс по лингвистике для NLPшников недавно выпустила Лиза Былинина: bylinina.github.io/ling_course.

Зачем эта наука нам вообще нужна? Не столько даже для того, чтобы решать задачи с её помощью, а чтобы правильно задачи ставить и описывать проблемы.
Для меня в последний год, когда я много работаю с языками, которых не понимаю, это особенно важно: нужен понятийный набор, чтобы адекватно такие языки обсуждать.

Поэтому - рекомендую.
🔥9👍2
Статья моего ученика с Практикума.
Красавчик же, ну?!

Просто, понятно, для людей. Если со spacy раньше не работали, то в самый раз прочитать, чтобы начать.

Моё почтение 🔥
👍1
​​🎃Классификация текстов в spaCy: пошаговая инструкция

В этой статье вы узнаете, как реализовать классификатор текстов при помощи библиотеки spaCy, а также несколько полезных лайфхаков, которые помогут ускорить обработку.

Читать...
👍6🔥3
Друзья, всем привет!

Преподавая на курсах я слышал от своих студентов разные пожелания насчёт того, чего им хотелось бы ещё.

На данный момент, я пересматриваю и разрабатываю новую программу обучения, и хочу его сделать максимально насыщенным и полезным для всех, кто собирается учиться на нём. Есть много идей и четкое видение, но вполне возможно, я не учёл каких-то очевидных вещей.

Я знаю, что много моих бывших/действующих студентов здесь присутствует, но тем не менее, мне интересно мнение каждого по следующему вопросу.

Что бы хотели видеть в курсах по машинному обучению и нейронным сетям? Чего не хватало на различных площадках?

Спасибо ☀️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Приходите в гости на огонёк ☀️
👍1
Два дня до DataStart! 2 ноября - вы с нами?

Артур Сапрыкин - data scientist, предприниматель, исследователь AI, автор и преподаватель курсов по машинному обучению.

Тема: Методы сравнения отличий двух изображений

Тезисы:
⁃ Сравнение двух изображений - польза или только развлечение? Когда это может пригодиться в решении бизнес-задач
⁃ Классические подходы. В чём их особенность, польза, недостатки при динамике света
⁃ Как можно уменьшить проблемы и улучшить качество детектирования изменений на изображении. Сочетания разных подходов.

🎩 Встречаемся 2 ноября - https://clck.ru/36HQvV
👍31
Сегодня участвовал на форуме Breakpoint 2023 с докладом про распознавание автоответчиков.

Спасибо всем, кто был, атмосфера была живая приятная, было приятно делиться опытом ☀️🙏🏼❤️
🔥15👍4