Наступило время полезностей!
Мой хороший товарищ из Selectel написал оооочень объемную статью про источники, которые здорово изучить начинающему специалисту по машинному обучению.
Честно говоря, даже опытным будет полезно 😉
В ней содержатся источники знаний начиная с логики, заканчивая матаном.
Одно слово - полезно! ☀️
Мой хороший товарищ из Selectel написал оооочень объемную статью про источники, которые здорово изучить начинающему специалисту по машинному обучению.
Честно говоря, даже опытным будет полезно 😉
В ней содержатся источники знаний начиная с логики, заканчивая матаном.
Одно слово - полезно! ☀️
Хабр
От логики и риторики до теории множеств и матанализа. Полезные материалы по Data Science и машинному обучению
Привет, Хабр! Меня все еще зовут Ефим, и я все еще MLOps-инженер в отделе Data- и ML-продуктов Selectel . В предыдущей статье я кратко рассказал про основные ресурсы, которые могут помочь начинающему...
🔥10👍6❤2
Друзья!
Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать?
Вот и я не останусь в стороне 😋
Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost
Спасибо ☺️
Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать?
Вот и я не останусь в стороне 😋
Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost
Спасибо ☺️
Telegram
Магия данных | Артур Сапрыкин
Проголосуйте за канал, чтобы он смог публиковать истории.
👍1
Есть ли жизнь после Трансформеров?
Друзья, кто-то из вас точно знает такую архитектуру нейронных сетей - трансформеры.
Эти блоки сейчас присутствуют практически (если не во всех) в каждой крупной и успешной нейронной сети.
И действительно, при грамотном применении и достаточном датасете, можно создавать чудесные и интересные проекты.
В своё время трансформеры произвели своего рода революцию в области нейронных сетей, и вот давайте порассуждаем, а что может появиться дальше?
Вот в блоках трансформера ключевая особенность в многоголовом самовнимании и позиционном кодировании за счёт чего может работать со всей последовательностью “одновременно”, как будто мы уже прочитали всё.
Что, по вашему мнению, должно изменить и продвинуть направление нейронных сетей и/или искусственного интеллекта?
Давайте пообщаемся☀️
PS: Для тех, кто с трансформерами не знаком или плохо понимает, рекомендую изучить перевод статьи Jay Alamar про них. Очень ярко и доступно.
Друзья, кто-то из вас точно знает такую архитектуру нейронных сетей - трансформеры.
Эти блоки сейчас присутствуют практически (если не во всех) в каждой крупной и успешной нейронной сети.
И действительно, при грамотном применении и достаточном датасете, можно создавать чудесные и интересные проекты.
В своё время трансформеры произвели своего рода революцию в области нейронных сетей, и вот давайте порассуждаем, а что может появиться дальше?
Вот в блоках трансформера ключевая особенность в многоголовом самовнимании и позиционном кодировании за счёт чего может работать со всей последовательностью “одновременно”, как будто мы уже прочитали всё.
Что, по вашему мнению, должно изменить и продвинуть направление нейронных сетей и/или искусственного интеллекта?
Давайте пообщаемся
PS: Для тех, кто с трансформерами не знаком или плохо понимает, рекомендую изучить перевод статьи Jay Alamar про них. Очень ярко и доступно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Transformer в картинках
В прошлой статье мы рассматривали механизм внимания (attention) – чрезвычайно распространенный метод в современных моделях глубокого обучения, позволяющий улучшить показатели эффективности приложений...
🔥5
Магия данных | Артур Сапрыкин pinned «Друзья! Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать? Вот и я не останусь в стороне 😋 Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost Спасибо ☺️»
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣21❤4🌚3👍2🎉2
Всем привет, друзья!
Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии.
На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам распознавать автоответчики и голосовых помощников до того, как начнётся тарификация звонка.
Будет полезно и интересно. Обязательно приходите, и не стесняйтесь подойти поздороваться ☀️😉
Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии.
На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам распознавать автоответчики и голосовых помощников до того, как начнётся тарификация звонка.
Будет полезно и интересно. Обязательно приходите, и не стесняйтесь подойти поздороваться ☀️😉
👍4🔥4
Магия данных | Артур Сапрыкин
Всем привет, друзья! Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии. На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам…
Друзья! Мероприятие переносится на 4 и 5 ноября.
Моё выступление пройдёт 4 ноября с 13:15-14:00.
На этом всё, спасибо 🙂
Моё выступление пройдёт 4 ноября с 13:15-14:00.
На этом всё, спасибо 🙂
🔥2
Достаточно интересные наблюдения насчёт того, чтобы вектора заменить хэшами.
Мне эта идея кажется интересной, и вполне реально, что в этом направлении будут успешные реализации.
Вообще, ещё интересней было бы, если хеши не просто сравнивали, а применяли бы внутри архитектуры нейронных сетей. Естественно, работая с несколько другими принципами взаимодействия с ними.
А то выходит, что те, кто готовит крупные модели, встречаются с дороговизной построения и обучения этих моделей. Кроме того, поддержка их тоже не дешевая.
Как-то анализировал возможность размещения LLama 2 70B для решения одной задачи, прикинул пользовательский поток на неё и скорость отдачи, и сразу понял, что нужно двигаться по другому пути. Поддержка стоит заметную копеечку.
Мне эта идея кажется интересной, и вполне реально, что в этом направлении будут успешные реализации.
Вообще, ещё интересней было бы, если хеши не просто сравнивали, а применяли бы внутри архитектуры нейронных сетей. Естественно, работая с несколько другими принципами взаимодействия с ними.
А то выходит, что те, кто готовит крупные модели, встречаются с дороговизной построения и обучения этих моделей. Кроме того, поддержка их тоже не дешевая.
Как-то анализировал возможность размещения LLama 2 70B для решения одной задачи, прикинул пользовательский поток на неё и скорость отдачи, и сразу понял, что нужно двигаться по другому пути. Поддержка стоит заметную копеечку.
Medium
Векторы — прошлое ИИ, хэши — будущее
Искусственный интеллект был создан на основе векторной арифметики. Однако последние достижения доказали: в некоторых сферах применения ИИ…
👍4
Очень полезные знания для NLPешников.
Сам в начале пути погрузился в лингвистику на небольшую глубину.
Пожалуй, прочитаю и этот материал. Уверен, будет полезно, и вам рекомендую ☺️
Сам в начале пути погрузился в лингвистику на небольшую глубину.
Пожалуй, прочитаю и этот материал. Уверен, будет полезно, и вам рекомендую ☺️
👍1
Forwarded from ̶с̶а̶м̶̶о̶изолента мёбиуса
Хороший мини-курс по лингвистике для NLPшников недавно выпустила Лиза Былинина: bylinina.github.io/ling_course.
Зачем эта наука нам вообще нужна? Не столько даже для того, чтобы решать задачи с её помощью, а чтобы правильно задачи ставить и описывать проблемы.
Для меня в последний год, когда я много работаю с языками, которых не понимаю, это особенно важно: нужен понятийный набор, чтобы адекватно такие языки обсуждать.
Поэтому - рекомендую.
Зачем эта наука нам вообще нужна? Не столько даже для того, чтобы решать задачи с её помощью, а чтобы правильно задачи ставить и описывать проблемы.
Для меня в последний год, когда я много работаю с языками, которых не понимаю, это особенно важно: нужен понятийный набор, чтобы адекватно такие языки обсуждать.
Поэтому - рекомендую.
🔥9👍2
Статья моего ученика с Практикума.
Красавчик же, ну?!
Просто, понятно, для людей. Если со spacy раньше не работали, то в самый раз прочитать, чтобы начать.
Моё почтение 🔥
Красавчик же, ну?!
Просто, понятно, для людей. Если со spacy раньше не работали, то в самый раз прочитать, чтобы начать.
Моё почтение 🔥
👍1
Forwarded from Data Science | Machinelearning [ru]
🎃Классификация текстов в spaCy: пошаговая инструкция
В этой статье вы узнаете, как реализовать классификатор текстов при помощи библиотеки spaCy, а также несколько полезных лайфхаков, которые помогут ускорить обработку.
Читать...
В этой статье вы узнаете, как реализовать классификатор текстов при помощи библиотеки spaCy, а также несколько полезных лайфхаков, которые помогут ускорить обработку.
Читать...
👍6🔥3
Друзья, всем привет!
Преподавая на курсах я слышал от своих студентов разные пожелания насчёт того, чего им хотелось бы ещё.
На данный момент, я пересматриваю и разрабатываю новую программу обучения, и хочу его сделать максимально насыщенным и полезным для всех, кто собирается учиться на нём. Есть много идей и четкое видение, но вполне возможно, я не учёл каких-то очевидных вещей.
Я знаю, что много моих бывших/действующих студентов здесь присутствует, но тем не менее, мне интересно мнение каждого по следующему вопросу.
Что бы хотели видеть в курсах по машинному обучению и нейронным сетям? Чего не хватало на различных площадках?
Спасибо☀️
Преподавая на курсах я слышал от своих студентов разные пожелания насчёт того, чего им хотелось бы ещё.
На данный момент, я пересматриваю и разрабатываю новую программу обучения, и хочу его сделать максимально насыщенным и полезным для всех, кто собирается учиться на нём. Есть много идей и четкое видение, но вполне возможно, я не учёл каких-то очевидных вещей.
Я знаю, что много моих бывших/действующих студентов здесь присутствует, но тем не менее, мне интересно мнение каждого по следующему вопросу.
Что бы хотели видеть в курсах по машинному обучению и нейронным сетям? Чего не хватало на различных площадках?
Спасибо
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11
Forwarded from DataStart | 3 июля | конференция Data Science
Два дня до DataStart! 2 ноября - вы с нами?
Артур Сапрыкин - data scientist, предприниматель, исследователь AI, автор и преподаватель курсов по машинному обучению.
Тема: Методы сравнения отличий двух изображений
Тезисы:
⁃ Сравнение двух изображений - польза или только развлечение? Когда это может пригодиться в решении бизнес-задач
⁃ Классические подходы. В чём их особенность, польза, недостатки при динамике света
⁃ Как можно уменьшить проблемы и улучшить качество детектирования изменений на изображении. Сочетания разных подходов.
🎩 Встречаемся 2 ноября - https://clck.ru/36HQvV
Артур Сапрыкин - data scientist, предприниматель, исследователь AI, автор и преподаватель курсов по машинному обучению.
Тема: Методы сравнения отличий двух изображений
Тезисы:
⁃ Сравнение двух изображений - польза или только развлечение? Когда это может пригодиться в решении бизнес-задач
⁃ Классические подходы. В чём их особенность, польза, недостатки при динамике света
⁃ Как можно уменьшить проблемы и улучшить качество детектирования изменений на изображении. Сочетания разных подходов.
🎩 Встречаемся 2 ноября - https://clck.ru/36HQvV
👍3❤1
Сегодня участвовал на форуме Breakpoint 2023 с докладом про распознавание автоответчиков.
Спасибо всем, кто был, атмосфера была живая приятная, было приятно делиться опытом ☀️🙏🏼❤️
Спасибо всем, кто был, атмосфера была живая приятная, было приятно делиться опытом ☀️🙏🏼❤️
🔥15👍4