Думаю, всем вам известен алгоритм KNN (это про ближайших соседей), и его объяснение одно из самых простых в мире машинного обучения.
Однако может возникнуть вопрос: “Неужели с каждым предсказанием идёт полный перебор и сравнение с тем, что содержится в обучающей выборке?”
Конечно, такой путь возможен, но зачем? Эту процедуру можно сильно ускорить, ведь визуально нам не нужно перебирать все точки, чтобы понять, кто рядом.
Для ускорения поиска строятся деревья, и в sklearn вы могли видеть метод на выбор - KD Tree или Ball Tree.
Предлагаю ознакомиться с тем, что эти алгоритмы из себя представляют, а также увидеть их сравнения.
Ученье - Свет☀️
Однако может возникнуть вопрос: “Неужели с каждым предсказанием идёт полный перебор и сравнение с тем, что содержится в обучающей выборке?”
Конечно, такой путь возможен, но зачем? Эту процедуру можно сильно ускорить, ведь визуально нам не нужно перебирать все точки, чтобы понять, кто рядом.
Для ускорения поиска строятся деревья, и в sklearn вы могли видеть метод на выбор - KD Tree или Ball Tree.
Предлагаю ознакомиться с тем, что эти алгоритмы из себя представляют, а также увидеть их сравнения.
Ученье - Свет
Please open Telegram to view this post
VIEW IN TELEGRAM
Varsha Saini
KD Tree and Ball Tree - KNN Algorithm - Varsha Saini
In this article Ball Tree and KD Tree - KNN Algorithm is explained in detail with diagrams and step wise implementations. The advantage of these tree based algorithm is explained over brute force approach.
🔥8
Друзья, сегодня я создал сообщество в VK, дублирующий во многом этот канал.
В VK есть ряд функций, которые интересно будет внедрить, поэкспериментировать и использовать вместе с вами.
Присоединяйтесь! Буду рад всем 🙌🏼
В VK есть ряд функций, которые интересно будет внедрить, поэкспериментировать и использовать вместе с вами.
Присоединяйтесь! Буду рад всем 🙌🏼
VK
Магия данных | Артур Сапрыкин
Сообщество Артура Сапрыкина. Data scientist, преподаватель, автор курсов, исследователь ML и AI 🤓 Создаю со своей командой ML-проекты 🦾 Здесь я делюсь интересными и полезными статьями в области науки о данных и искусственного интеллекта, общаюсь, выражаю…
👍7🤡5❤1
Одни из моментов, которые приносят мне радость - это успехи моих учеников.
В эти выходные, команда из моих учеников заняла 2е место на хакатоне за NLP-решение.
Это меня очень радует, и хочу поделиться этой радостью с вами!
В очередной раз убеждаюсь, что стремление превосходит любые обстоятельства☀️ 🔥
В эти выходные, команда из моих учеников заняла 2е место на хакатоне за NLP-решение.
Это меня очень радует, и хочу поделиться этой радостью с вами!
В очередной раз убеждаюсь, что стремление превосходит любые обстоятельства
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32👍3
Наступило время полезностей!
Мой хороший товарищ из Selectel написал оооочень объемную статью про источники, которые здорово изучить начинающему специалисту по машинному обучению.
Честно говоря, даже опытным будет полезно 😉
В ней содержатся источники знаний начиная с логики, заканчивая матаном.
Одно слово - полезно! ☀️
Мой хороший товарищ из Selectel написал оооочень объемную статью про источники, которые здорово изучить начинающему специалисту по машинному обучению.
Честно говоря, даже опытным будет полезно 😉
В ней содержатся источники знаний начиная с логики, заканчивая матаном.
Одно слово - полезно! ☀️
Хабр
От логики и риторики до теории множеств и матанализа. Полезные материалы по Data Science и машинному обучению
Привет, Хабр! Меня все еще зовут Ефим, и я все еще MLOps-инженер в отделе Data- и ML-продуктов Selectel . В предыдущей статье я кратко рассказал про основные ресурсы, которые могут помочь начинающему...
🔥10👍6❤2
Друзья!
Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать?
Вот и я не останусь в стороне 😋
Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost
Спасибо ☺️
Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать?
Вот и я не останусь в стороне 😋
Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost
Спасибо ☺️
Telegram
Магия данных | Артур Сапрыкин
Проголосуйте за канал, чтобы он смог публиковать истории.
👍1
Есть ли жизнь после Трансформеров?
Друзья, кто-то из вас точно знает такую архитектуру нейронных сетей - трансформеры.
Эти блоки сейчас присутствуют практически (если не во всех) в каждой крупной и успешной нейронной сети.
И действительно, при грамотном применении и достаточном датасете, можно создавать чудесные и интересные проекты.
В своё время трансформеры произвели своего рода революцию в области нейронных сетей, и вот давайте порассуждаем, а что может появиться дальше?
Вот в блоках трансформера ключевая особенность в многоголовом самовнимании и позиционном кодировании за счёт чего может работать со всей последовательностью “одновременно”, как будто мы уже прочитали всё.
Что, по вашему мнению, должно изменить и продвинуть направление нейронных сетей и/или искусственного интеллекта?
Давайте пообщаемся☀️
PS: Для тех, кто с трансформерами не знаком или плохо понимает, рекомендую изучить перевод статьи Jay Alamar про них. Очень ярко и доступно.
Друзья, кто-то из вас точно знает такую архитектуру нейронных сетей - трансформеры.
Эти блоки сейчас присутствуют практически (если не во всех) в каждой крупной и успешной нейронной сети.
И действительно, при грамотном применении и достаточном датасете, можно создавать чудесные и интересные проекты.
В своё время трансформеры произвели своего рода революцию в области нейронных сетей, и вот давайте порассуждаем, а что может появиться дальше?
Вот в блоках трансформера ключевая особенность в многоголовом самовнимании и позиционном кодировании за счёт чего может работать со всей последовательностью “одновременно”, как будто мы уже прочитали всё.
Что, по вашему мнению, должно изменить и продвинуть направление нейронных сетей и/или искусственного интеллекта?
Давайте пообщаемся
PS: Для тех, кто с трансформерами не знаком или плохо понимает, рекомендую изучить перевод статьи Jay Alamar про них. Очень ярко и доступно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Transformer в картинках
В прошлой статье мы рассматривали механизм внимания (attention) – чрезвычайно распространенный метод в современных моделях глубокого обучения, позволяющий улучшить показатели эффективности приложений...
🔥5
Магия данных | Артур Сапрыкин pinned «Друзья! Вы видели поток ссылок на каналов для буста, чтобы сторис выкладывать? Вот и я не останусь в стороне 😋 Если хотите видеть истории на канале, то голосуйте - https://news.1rj.ru/str/data_magic?boost Спасибо ☺️»
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣21❤4🌚3👍2🎉2
Всем привет, друзья!
Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии.
На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам распознавать автоответчики и голосовых помощников до того, как начнётся тарификация звонка.
Будет полезно и интересно. Обязательно приходите, и не стесняйтесь подойти поздороваться ☀️😉
Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии.
На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам распознавать автоответчики и голосовых помощников до того, как начнётся тарификация звонка.
Будет полезно и интересно. Обязательно приходите, и не стесняйтесь подойти поздороваться ☀️😉
👍4🔥4
Магия данных | Артур Сапрыкин
Всем привет, друзья! Хочу сообщить, что 28 и 29 октября пройдёт Всероссийский форум Breakpoint 2023 для будущих двигателей IT-индустрии. На этом форуме, 28 октября, я расскажу про методы и инструменты, которые помогут автоматизированным роботам-обзвонщикам…
Друзья! Мероприятие переносится на 4 и 5 ноября.
Моё выступление пройдёт 4 ноября с 13:15-14:00.
На этом всё, спасибо 🙂
Моё выступление пройдёт 4 ноября с 13:15-14:00.
На этом всё, спасибо 🙂
🔥2
Достаточно интересные наблюдения насчёт того, чтобы вектора заменить хэшами.
Мне эта идея кажется интересной, и вполне реально, что в этом направлении будут успешные реализации.
Вообще, ещё интересней было бы, если хеши не просто сравнивали, а применяли бы внутри архитектуры нейронных сетей. Естественно, работая с несколько другими принципами взаимодействия с ними.
А то выходит, что те, кто готовит крупные модели, встречаются с дороговизной построения и обучения этих моделей. Кроме того, поддержка их тоже не дешевая.
Как-то анализировал возможность размещения LLama 2 70B для решения одной задачи, прикинул пользовательский поток на неё и скорость отдачи, и сразу понял, что нужно двигаться по другому пути. Поддержка стоит заметную копеечку.
Мне эта идея кажется интересной, и вполне реально, что в этом направлении будут успешные реализации.
Вообще, ещё интересней было бы, если хеши не просто сравнивали, а применяли бы внутри архитектуры нейронных сетей. Естественно, работая с несколько другими принципами взаимодействия с ними.
А то выходит, что те, кто готовит крупные модели, встречаются с дороговизной построения и обучения этих моделей. Кроме того, поддержка их тоже не дешевая.
Как-то анализировал возможность размещения LLama 2 70B для решения одной задачи, прикинул пользовательский поток на неё и скорость отдачи, и сразу понял, что нужно двигаться по другому пути. Поддержка стоит заметную копеечку.
Medium
Векторы — прошлое ИИ, хэши — будущее
Искусственный интеллект был создан на основе векторной арифметики. Однако последние достижения доказали: в некоторых сферах применения ИИ…
👍4
Очень полезные знания для NLPешников.
Сам в начале пути погрузился в лингвистику на небольшую глубину.
Пожалуй, прочитаю и этот материал. Уверен, будет полезно, и вам рекомендую ☺️
Сам в начале пути погрузился в лингвистику на небольшую глубину.
Пожалуй, прочитаю и этот материал. Уверен, будет полезно, и вам рекомендую ☺️
👍1
Forwarded from ̶с̶а̶м̶̶о̶изолента мёбиуса
Хороший мини-курс по лингвистике для NLPшников недавно выпустила Лиза Былинина: bylinina.github.io/ling_course.
Зачем эта наука нам вообще нужна? Не столько даже для того, чтобы решать задачи с её помощью, а чтобы правильно задачи ставить и описывать проблемы.
Для меня в последний год, когда я много работаю с языками, которых не понимаю, это особенно важно: нужен понятийный набор, чтобы адекватно такие языки обсуждать.
Поэтому - рекомендую.
Зачем эта наука нам вообще нужна? Не столько даже для того, чтобы решать задачи с её помощью, а чтобы правильно задачи ставить и описывать проблемы.
Для меня в последний год, когда я много работаю с языками, которых не понимаю, это особенно важно: нужен понятийный набор, чтобы адекватно такие языки обсуждать.
Поэтому - рекомендую.
🔥9👍2
Статья моего ученика с Практикума.
Красавчик же, ну?!
Просто, понятно, для людей. Если со spacy раньше не работали, то в самый раз прочитать, чтобы начать.
Моё почтение 🔥
Красавчик же, ну?!
Просто, понятно, для людей. Если со spacy раньше не работали, то в самый раз прочитать, чтобы начать.
Моё почтение 🔥
👍1