ИИ-ансамбли для автоматической генерации аннотированных библиографий: новый уровень точности и эффективности
Генерация аннотированных библиографий – трудоемкий и требующий значительных экспертных знаний процесс. В новой работе Серхио Бермехо предлагается инновационный подход к автоматизации этой задачи с использованием ансамблей больших языковых моделей (LLM). Вместо использования одной LLM, Бермехо предлагает трехуровневую архитектуру, в которой несколько LLM работают совместно, играя разные роли: генерация текста, оценка и суммирование.
Как это работает?
Генерация: Несколько LLM с различными гиперпараметрами (температура, top-k, top-p) генерируют разнообразные варианты аннотаций для одной и той же статьи. Это создаёт разнообразие вывода, что крайне важно для повышения качества итогового результата.
Оценка: Другая LLM выступает в роли "судьи", оценивая сгенерированные аннотации по таким критериям, как релевантность, точность и связность. Этот подход объективнее, чем использование традиционных метрик качества текста.
Суммирование: Наконец, третья LLM объединяет и уточняет лучшие аннотации, выбранные "судьей", используя методы суммирования и удаления избыточной информации.
Результаты впечатляют:
Эксперименты показали значительное улучшение качества аннотаций, сгенерированных ансамблем LLM, по сравнению с результатами отдельных моделей. В частности, метод "Top M Responses" показал улучшение читаемости на 38% и сокращение избыточности контента на 51%. Это демонстрирует эффективность использования ансамблей LLM для автоматизации сложных задач, требующих как генерации текста, так и критической оценки информации.
#ИИ_для_кабинетных_исследований
Генерация аннотированных библиографий – трудоемкий и требующий значительных экспертных знаний процесс. В новой работе Серхио Бермехо предлагается инновационный подход к автоматизации этой задачи с использованием ансамблей больших языковых моделей (LLM). Вместо использования одной LLM, Бермехо предлагает трехуровневую архитектуру, в которой несколько LLM работают совместно, играя разные роли: генерация текста, оценка и суммирование.
Как это работает?
Генерация: Несколько LLM с различными гиперпараметрами (температура, top-k, top-p) генерируют разнообразные варианты аннотаций для одной и той же статьи. Это создаёт разнообразие вывода, что крайне важно для повышения качества итогового результата.
Оценка: Другая LLM выступает в роли "судьи", оценивая сгенерированные аннотации по таким критериям, как релевантность, точность и связность. Этот подход объективнее, чем использование традиционных метрик качества текста.
Суммирование: Наконец, третья LLM объединяет и уточняет лучшие аннотации, выбранные "судьей", используя методы суммирования и удаления избыточной информации.
Результаты впечатляют:
Эксперименты показали значительное улучшение качества аннотаций, сгенерированных ансамблем LLM, по сравнению с результатами отдельных моделей. В частности, метод "Top M Responses" показал улучшение читаемости на 38% и сокращение избыточности контента на 51%. Это демонстрирует эффективность использования ансамблей LLM для автоматизации сложных задач, требующих как генерации текста, так и критической оценки информации.
#ИИ_для_кабинетных_исследований
arXiv.org
Enhancing Annotated Bibliography Generation with LLM Ensembles
This work proposes a novel approach to enhancing annotated bibliography generation through Large Language Model (LLM) ensembles. In particular, multiple LLMs in different roles -- controllable...
👍10
Анализ конкурентной среды для AI-стартапа DataVision Italia: рубрика "Как было проведено это исследование"
✔️ Исследовательский вопрос: Кто является основными конкурентами DataVision Italia, каковы их сильные и слабые стороны, и как DataVision Italia может позиционировать себя на рынке, чтобы добиться конкурентного преимущества?
💬 Методология
Анализ конкурентной среды проводился в рамках кабинетного исследования (desk research), с использованием качественных методов анализа вторичных данных. Особое внимание уделялось изучению прямых и косвенных конкурентов.
⭕️ Этап 1: Определение конкурентного поля:
В первую очередь, были выделены ключевые игроки на итальянском рынке, предлагающие решения в области AI, связанные с:
- Обработкой изображений и компьютерным зрением.
- Разработкой AI-платформ для бизнеса.
- Автоматизацией бизнес-процессов с использованием AI.
⭕️ Этап 2: Сбор данных о конкурентах
Информация о конкурентах собиралась из различных источников:
- Официальные сайты компаний: Анализ сайтов конкурентов позволил получить информацию об их продуктах, услугах, целевой аудитории, географическом охвате и истории развития.
- Отраслевые отчеты и публикации: Изучение аналитических материалов, публикуемых отраслевыми ассоциациями и консалтинговыми компаниями, позволило оценить доли рынка основных игроков, тенденции развития рынка и прогнозы на будущее.
- Новости и пресс-релизы: Анализ новостных сообщений и пресс-релизов конкурентов позволил отслеживать их активность на рынке, новые продукты и партнерства.
- Социальные сети: Мониторинг активности конкурентов в социальных сетях позволил оценить их маркетинговые стратегии и взаимодействие с целевой аудиторией.
⭕️ Этап 3: SWOT-анализ конкурентов
Для каждого ключевого конкурента был проведен SWOT-анализ, который позволил систематизировать информацию о его сильных и слабых сторонах, а также о возможностях и угрозах, связанных с его деятельностью. Особое внимание уделялось таким факторам, как:
- Технологические возможности: Наличие инновационных технологий, уровень развития продуктов и услуг.
- Рыночная позиция: Доля рынка, репутация бренда, лояльность клиентов.
- Финансовые показатели: Объемы продаж, прибыльность, инвестиции.
- Управленческая команда: Опыт и квалификация руководства.
💬 Источники данных
- Сайты конкурентов: Vedrai, Indigo.ai, Aiko, и другие.
- Отраслевые отчеты: Anitec-Assinform, Osservatorio Digital Innovation.
- Публикации в СМИ: Forbes, Harvard Business Review, La Repubblica.
- Социальные сети: LinkedIn, Twitter, Facebook.
- Базы данных: Crunchbase.
На основе проведенного анализа были выявлены ключевые факторы дифференциации DataVision Italia и ее продукта AutoCrash, что позволило разработать эффективную стратегию позиционирования на рынке.
Анализ конкурентной среды проводился в рамках кабинетного исследования (desk research), с использованием качественных методов анализа вторичных данных. Особое внимание уделялось изучению прямых и косвенных конкурентов.
В первую очередь, были выделены ключевые игроки на итальянском рынке, предлагающие решения в области AI, связанные с:
- Обработкой изображений и компьютерным зрением.
- Разработкой AI-платформ для бизнеса.
- Автоматизацией бизнес-процессов с использованием AI.
Информация о конкурентах собиралась из различных источников:
- Официальные сайты компаний: Анализ сайтов конкурентов позволил получить информацию об их продуктах, услугах, целевой аудитории, географическом охвате и истории развития.
- Отраслевые отчеты и публикации: Изучение аналитических материалов, публикуемых отраслевыми ассоциациями и консалтинговыми компаниями, позволило оценить доли рынка основных игроков, тенденции развития рынка и прогнозы на будущее.
- Новости и пресс-релизы: Анализ новостных сообщений и пресс-релизов конкурентов позволил отслеживать их активность на рынке, новые продукты и партнерства.
- Социальные сети: Мониторинг активности конкурентов в социальных сетях позволил оценить их маркетинговые стратегии и взаимодействие с целевой аудиторией.
Для каждого ключевого конкурента был проведен SWOT-анализ, который позволил систематизировать информацию о его сильных и слабых сторонах, а также о возможностях и угрозах, связанных с его деятельностью. Особое внимание уделялось таким факторам, как:
- Технологические возможности: Наличие инновационных технологий, уровень развития продуктов и услуг.
- Рыночная позиция: Доля рынка, репутация бренда, лояльность клиентов.
- Финансовые показатели: Объемы продаж, прибыльность, инвестиции.
- Управленческая команда: Опыт и квалификация руководства.
- Сайты конкурентов: Vedrai, Indigo.ai, Aiko, и другие.
- Отраслевые отчеты: Anitec-Assinform, Osservatorio Digital Innovation.
- Публикации в СМИ: Forbes, Harvard Business Review, La Repubblica.
- Социальные сети: LinkedIn, Twitter, Facebook.
- Базы данных: Crunchbase.
На основе проведенного анализа были выявлены ключевые факторы дифференциации DataVision Italia и ее продукта AutoCrash, что позволило разработать эффективную стратегию позиционирования на рынке.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10
какая-то библиотека pinned «📢 Моя книга о кабинетных исследованиях Коллеги, хочу рассказать о проекте, который для меня очень важен. Это книга, где я собрала всё, что узнала и проверила на практике за годы работы в кабинетных исследованиях. 🐈⬛ Эта книга — результат шести лет работы…»
ИИ для социальных исследований: новые подходы к качественным и количественным методам
В статье "Generative AI for Social Research: Going Native with Artificial Intelligence", опубликованной в Sociologica, Pilati, Munk и Venturini представляют обзор новых способов применения генеративного ИИ в социальных науках. Авторы не ограничиваются описанием возможностей, а акцентируют внимание на методологических аспектах, подчеркивая сближение качественных и количественных методов и переход к "нативно-цифровым" подходам.
Статья рассматривает два основных направления использования генеративного ИИ в социальных исследованиях:
Сглаживание границы между качественными и количественными методами: LLM (большие языковые модели) демонстрируют эффективность как в качественных задачах (чистка данных, аннотация, анализ нарративов), так и в количественных (создание опросников, анализ статистических моделей). Это разрушает традиционное разделение методов и открывает новые возможности для исследователей.
Переход к "нативно-цифровым" методам: Авторы призывают к использованию ИИ не просто как инструмента для обработки существующих данных, но и как метода генерации новых данных и анализа цифровых инфраструктур. Это предполагает более глубокое понимание того, как ИИ "видит" мир и как его модели отражают культурные и социальные контексты.
Примеры использования генеративного ИИ:
Качественные исследования: LLM используются для очистки транскрипций интервью, аннотации данных, обнаружения сюжетов в литературных текстах, проведения полуструктурированных интервью и анализа мультимодальных данных.
Количественные исследования: LLM применяются для создания адаптивных опросников, улучшения точности статистических моделей и автоматизации рутинных задач.
Анализ культурных и социальных контекстов: Исследования фокусируются на выявлении культурных предвзятостей LLM, сравнении их ответов с ответами людей из разных культурных групп и анализе внутренних механизмов работы моделей.
Статья призывает к осмысленному использованию генеративного ИИ в социальных исследованиях, подчеркивая необходимость развития новых методологических подходов и критического анализа результатов. Авторы предлагают рассматривать ИИ не только как инструмент, но и как объект исследования, что позволит глубоко понять его возможности и ограничения. Дальнейшие исследования в этом направлении обещают значительный прогресс в социальных науках.
В статье "Generative AI for Social Research: Going Native with Artificial Intelligence", опубликованной в Sociologica, Pilati, Munk и Venturini представляют обзор новых способов применения генеративного ИИ в социальных науках. Авторы не ограничиваются описанием возможностей, а акцентируют внимание на методологических аспектах, подчеркивая сближение качественных и количественных методов и переход к "нативно-цифровым" подходам.
Статья рассматривает два основных направления использования генеративного ИИ в социальных исследованиях:
Сглаживание границы между качественными и количественными методами: LLM (большие языковые модели) демонстрируют эффективность как в качественных задачах (чистка данных, аннотация, анализ нарративов), так и в количественных (создание опросников, анализ статистических моделей). Это разрушает традиционное разделение методов и открывает новые возможности для исследователей.
Переход к "нативно-цифровым" методам: Авторы призывают к использованию ИИ не просто как инструмента для обработки существующих данных, но и как метода генерации новых данных и анализа цифровых инфраструктур. Это предполагает более глубокое понимание того, как ИИ "видит" мир и как его модели отражают культурные и социальные контексты.
Примеры использования генеративного ИИ:
Качественные исследования: LLM используются для очистки транскрипций интервью, аннотации данных, обнаружения сюжетов в литературных текстах, проведения полуструктурированных интервью и анализа мультимодальных данных.
Количественные исследования: LLM применяются для создания адаптивных опросников, улучшения точности статистических моделей и автоматизации рутинных задач.
Анализ культурных и социальных контекстов: Исследования фокусируются на выявлении культурных предвзятостей LLM, сравнении их ответов с ответами людей из разных культурных групп и анализе внутренних механизмов работы моделей.
Статья призывает к осмысленному использованию генеративного ИИ в социальных исследованиях, подчеркивая необходимость развития новых методологических подходов и критического анализа результатов. Авторы предлагают рассматривать ИИ не только как инструмент, но и как объект исследования, что позволит глубоко понять его возможности и ограничения. Дальнейшие исследования в этом направлении обещают значительный прогресс в социальных науках.
❤6👍3✍1
Меня часто просят поделиться секретами тайм-менеджмента для кабинетной работы, да и вообще. Проблема в том, что я не могу четко сформулировать свои практики. Я просто… делаю. Поэтому мне сложно писать такие посты и даже рассказывать об этом. Если есть силы — делаю. Если серотонин сегодня решил не вырабатываться — не делаю. Как будто это происходит помимо меня.
Да, я ленюсь. Часто пропускаю зал, бросила английский из-за нехватки сил. Но при этом успеваю выполнять рабочие задачи (за 8 часов в день было бы странно не успевать) и вести этот блог (спасибо ИИ, с ним не так много мороки).
Секрет, наверное, в том, что я всё планирую. Иногда это причина, по которой я злюсь на бойфренда, у которого горизонт планирования покороче (прости, любимый, я работаю над собой!).
Вот и весь мой "тайм-менеджмент". Может, он и странный, но мне работает.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤29✍1👍1
Сетевой анализ для поиска научной литературы: обзор простых и бесплатных сервисов
В этом посте я расскажу о сетевом анализе в научной библиографии и поделюсь простыми и бесплатными инструментами для его проведения.
Что такое сетевой анализ?
Сетевой анализ в библиографии — это метод, который позволяет исследовать связи между научными публикациями. Он основан на анализе цитирований: кто кого цитировал, какие статьи похожи по ключевым словам и цитированиям.
〰️ Инструменты для сетевого анализа:
✔️ Google Scholar: Да, в Google Академии уже есть элементы сетевого анализа. Функция "Похожие статьи" основана на семантическом анализе, то есть подбирает статьи, похожие по ключевым словам и цитированиям.
✔️ Inciteful: Мой любимый инструмент с интуитивно понятным интерфейсом. Позволяет провести сетевой анализ одной статьи или сравнить две статьи между собой.
🟣 Анализ одной статьи: Показывает, кто цитировал статью, на какие статьи она ссылается, а также предлагает похожие статьи, статьи с обзорами и наиболее влиятельные статьи в этой области.
🟣 Сравнение двух статей: Позволяет увидеть, как связаны две статьи и насколько близко они расположены в сети цитирований.
✔️ ResearchRabbit: Похож на Inciteful, но с интеграцией с Zotero. Позволяет строить графы цитирований, находить похожие работы и добавлять их в свою библиотеку Zotero.
✔️ Litmaps: Позволяет проводить сетевой анализ по названию статьи или ключевым словам. Показывает цитирования, референсы (библиографический список) и связанные статьи на основе семантического анализа.
⭐️ Как использовать сетевой анализ?
Сетевой анализ — отличное дополнение к поиску по ключевым словам. Особенно полезен, когда у вас есть одна релевантная статья, и вы хотите найти похожие публикации.
В этом посте я расскажу о сетевом анализе в научной библиографии и поделюсь простыми и бесплатными инструментами для его проведения.
Что такое сетевой анализ?
Сетевой анализ в библиографии — это метод, который позволяет исследовать связи между научными публикациями. Он основан на анализе цитирований: кто кого цитировал, какие статьи похожи по ключевым словам и цитированиям.
Сетевой анализ — отличное дополнение к поиску по ключевым словам. Особенно полезен, когда у вас есть одна релевантная статья, и вы хотите найти похожие публикации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23👍6
Матрицы – не просто таблички, а мощный инструмент для визуализации связей между разными факторами и понимания их влияния друг на друга. Они пригодятся для анализа конкурентов, оценки рисков, принятия стратегических решений и многого другого.
Важно помнить: матрицы – это инструмент, а не самоцель. Главное – не просто заполнить ячейки, а проанализировать данные и найти инсайты для принятия обоснованных решений.
Это отрывок из моей книги про кабинетные исследования в библиотеке. Подробнее о методике тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
какая-то библиотека
📢 Моя книга о кабинетных исследованиях
Коллеги, хочу рассказать о проекте, который для меня очень важен. Это книга, где я собрала всё, что узнала и проверила на практике за годы работы в кабинетных исследованиях.
🐈⬛Эта книга — результат шести лет работы…
Коллеги, хочу рассказать о проекте, который для меня очень важен. Это книга, где я собрала всё, что узнала и проверила на практике за годы работы в кабинетных исследованиях.
🐈⬛Эта книга — результат шести лет работы…
❤12
Forwarded from Dsight
📢 Книга о кабинетных исследованиях от ex-аналитика Dsight
Мы всегда радуемся успехам наших бывших сотрудников, и как раз есть отличный повод. Это книга, которую написала Елена Каганова, в прошлом — старший аналитик Dsight.
🐈⬛ Эта книга — результат шести лет работы, в течение которых Елена училась искать данные в самых неожиданных местах, систематизировать их так, чтобы ничего не терялось, и адаптироваться к разным задачам, используя доступные цифровые средства.
🔤 О чем книга?
Это сборник советов, историй и практических кейсов.
🟣 Как искать, систематизировать и сохранять данные так, чтобы не тратить время зря.
🟣 Чек-листы и пошаговые инструкции — всё, что помогает на практике.
🟣 Кейсы из практики — реальные истории по поиску данных и их анализу.
⭐️ Для кого книга?
Для студентов, исследователей, аналитиков, консалтеров — для всех, кто регулярно работает с информацией: ищет её, сохраняет и использует в работе.
❗️ Важно, что эта книга обновляемая. В нее будут добавляться новые главы с примерами из текущей практики Елены и методами, которые помогают ее каждый день.
Доступ к книге тут.💜
Огонь? Огонь! 🔥
Мы всегда радуемся успехам наших бывших сотрудников, и как раз есть отличный повод. Это книга, которую написала Елена Каганова, в прошлом — старший аналитик Dsight.
Это сборник советов, историй и практических кейсов.
Для студентов, исследователей, аналитиков, консалтеров — для всех, кто регулярно работает с информацией: ищет её, сохраняет и использует в работе.
Доступ к книге тут.💜
Огонь? Огонь! 🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
boosty.to
Книга "Кабинетные исследования: вводный курс" - каганова: деск ричёрч
Эта книга, эта методичка, - сборник моих советов, историй и наблюдений о том, как проводить кабинетные исследования.
✍7❤6
Вторичный анализ данных: новый взгляд на старые данные
В эпоху больших данных, когда объемы собранной и заархивированной информации растут экспоненциально, вторичный анализ данных становится все более актуальным инструментом для исследователей. Что это такое? Вторичный анализ – это использование данных, собранных кем-то другим для другой цели, для ответа на новые исследовательские вопросы.
Почему это важно?
Экономия ресурсов: Позволяет проводить исследования с ограниченными временными и финансовыми ресурсами.
Доступ к большим выборкам: Открывает возможности для анализа данных, собранных в рамках крупных проектов с репрезентативными выборками.
Ускорение исследований: Сокращает время, затрачиваемое на сбор данных, что особенно важно в быстро меняющейся сфере информационных технологий.
Новые перспективы: Позволяет переосмыслить существующие данные и получить новые знания.
Пример из практики:
В статье, на основе которой написан этот пост, рассматривается исследование роли школьных библиотекарей в интеграции технологий. Изначально данные были собраны для оценки текущей ситуации, но вторичный анализ позволил выявить факторы, способствующие и препятствующие лидерству библиотекарей в этой области.
Важные моменты:
Вторичный анализ – это не просто "халява". Это серьезный метод, требующий систематического подхода:
Четкая формулировка исследовательских вопросов.
Тщательный выбор подходящего набора данных.
Оценка качества и пригодности данных для решения поставленных задач. (Например, необходимо учитывать цель первоначального исследования, методы сбора данных, временной период и т.д.)
Учет ограничений: Важно помнить, что данные были собраны для другой цели, и это может накладывать ограничения на интерпретацию результатов.
В эпоху больших данных, когда объемы собранной и заархивированной информации растут экспоненциально, вторичный анализ данных становится все более актуальным инструментом для исследователей. Что это такое? Вторичный анализ – это использование данных, собранных кем-то другим для другой цели, для ответа на новые исследовательские вопросы.
Почему это важно?
Экономия ресурсов: Позволяет проводить исследования с ограниченными временными и финансовыми ресурсами.
Доступ к большим выборкам: Открывает возможности для анализа данных, собранных в рамках крупных проектов с репрезентативными выборками.
Ускорение исследований: Сокращает время, затрачиваемое на сбор данных, что особенно важно в быстро меняющейся сфере информационных технологий.
Новые перспективы: Позволяет переосмыслить существующие данные и получить новые знания.
Пример из практики:
В статье, на основе которой написан этот пост, рассматривается исследование роли школьных библиотекарей в интеграции технологий. Изначально данные были собраны для оценки текущей ситуации, но вторичный анализ позволил выявить факторы, способствующие и препятствующие лидерству библиотекарей в этой области.
Важные моменты:
Вторичный анализ – это не просто "халява". Это серьезный метод, требующий систематического подхода:
Четкая формулировка исследовательских вопросов.
Тщательный выбор подходящего набора данных.
Оценка качества и пригодности данных для решения поставленных задач. (Например, необходимо учитывать цель первоначального исследования, методы сбора данных, временной период и т.д.)
Учет ограничений: Важно помнить, что данные были собраны для другой цели, и это может накладывать ограничения на интерпретацию результатов.
❤4👍1
Forwarded from Denis Sexy IT 🤖
Полезная ссылка для тех кто учится и кому нужны доступы к платным англоязычным научным статьям или книгам:
http://open-slum.org - тут собраны крупные «теневые библиотеки» и их статусы в режиме реального времени
http://open-slum.org - тут собраны крупные «теневые библиотеки» и их статусы в режиме реального времени
✍13❤4
Застряли с темой для исследования? Вот как найти тот самый вопрос! 🧐
В науке, как и в жизни, всё начинается с вопроса. Но как сформулировать такой исследовательский вопрос, чтобы он был захватывающим, актуальным и, главное, решаемым? 🤔
Вот, что советуют в книге Doing Good Qualitative Research:
1. Остерегайтесь "исследовательских тем". "Исследовательская тема" – это общее направление интереса (например, "экологическая политика в Латинской Америке"). А "исследовательский вопрос" – это конкретная проблема, на которую вы хотите пролить свет. 💡
2. Заполнять пробелы в литературе или решать проблемы реального мира? Это вечный вопрос! Одни советуют искать маленькие, нерешенные вопросы в существующих исследованиях, другие – черпать вдохновение из реальных проблем, которые важны здесь и сейчас. Главное – найти баланс между академической значимостью и практической пользой. ⚖️
3. Ориентируйтесь на свои навыки, методы и рынок. Выберите вопрос, который вам под силу. Но не бойтесь выходить за рамки! Новые навыки – это новые возможности! Главное, чтобы их освоение было реалистичным по срокам. А еще, стоит подумать, как ваш вопрос будет воспринят в научном сообществе. 🧐
4. Проекты, движимые страстью. Они существуют! И хорошо, если они у вас есть! 🔥 Но и здесь важно помнить о рамках, не уходить в дебри и стараться формулировать вопросы так, чтобы они были проверяемыми и решаемыми.
5. Ищите головоломки! Исследовательский вопрос, как хорошая головоломка, будит любопытство и заставляет задуматься, искать объяснение неожиданному явлению. 🧩
И главный секрет? 💪
Все хорошие исследовательские вопросы обладают аналитическим потенциалом (leverage). Это соотношение между масштабом вопроса и количеством новых знаний, которые он позволяет получить. Вопрос должен быть достаточно узким, чтобы быть решаемым, но при этом иметь широкий охват и значимость.
Помните, выбор исследовательского вопроса – это личный и итеративный процесс. Ищите то, что вас вдохновляет, подходит вашим навыкам и соответствует вашим целям. 😉
В науке, как и в жизни, всё начинается с вопроса. Но как сформулировать такой исследовательский вопрос, чтобы он был захватывающим, актуальным и, главное, решаемым? 🤔
Вот, что советуют в книге Doing Good Qualitative Research:
1. Остерегайтесь "исследовательских тем". "Исследовательская тема" – это общее направление интереса (например, "экологическая политика в Латинской Америке"). А "исследовательский вопрос" – это конкретная проблема, на которую вы хотите пролить свет. 💡
2. Заполнять пробелы в литературе или решать проблемы реального мира? Это вечный вопрос! Одни советуют искать маленькие, нерешенные вопросы в существующих исследованиях, другие – черпать вдохновение из реальных проблем, которые важны здесь и сейчас. Главное – найти баланс между академической значимостью и практической пользой. ⚖️
3. Ориентируйтесь на свои навыки, методы и рынок. Выберите вопрос, который вам под силу. Но не бойтесь выходить за рамки! Новые навыки – это новые возможности! Главное, чтобы их освоение было реалистичным по срокам. А еще, стоит подумать, как ваш вопрос будет воспринят в научном сообществе. 🧐
4. Проекты, движимые страстью. Они существуют! И хорошо, если они у вас есть! 🔥 Но и здесь важно помнить о рамках, не уходить в дебри и стараться формулировать вопросы так, чтобы они были проверяемыми и решаемыми.
5. Ищите головоломки! Исследовательский вопрос, как хорошая головоломка, будит любопытство и заставляет задуматься, искать объяснение неожиданному явлению. 🧩
И главный секрет? 💪
Все хорошие исследовательские вопросы обладают аналитическим потенциалом (leverage). Это соотношение между масштабом вопроса и количеством новых знаний, которые он позволяет получить. Вопрос должен быть достаточно узким, чтобы быть решаемым, но при этом иметь широкий охват и значимость.
Помните, выбор исследовательского вопроса – это личный и итеративный процесс. Ищите то, что вас вдохновляет, подходит вашим навыкам и соответствует вашим целям. 😉
Cyr, J., & Goodman, S. W. (2024). Doing Good Qualitative Research. Oxford University Press. 10.1093/oso/9780197633137.001.0001
❤35👍6
Forwarded from Коллективное действие
Каждый день мы встречаемся с результатами соцопросов: политики, журналисты и блогеры приводят разные цифры в подтверждение своих слов. Часто они подают опросы как зеркало общественного мнения.
Тем не менее, их результаты по одним темам нередко расходятся, а разные акторы по-разному интерпретируют и подают данные. Опросы могут работать не только как достоверная обратная связь, но и как конвейер по производству нужных результатов. Итоги исследований превращают в кликбейтные заголовки, которые вводят людей в заблуждение.
Почему все цифры разные? Каким из них можно доверять? Можно ли судить о мнении населения по ответам 1600 респондентов? И как формулировки вопросов подталкивают к «правильным» ответам? Разбираемся в карточках с исследовательницей «Коллективного действия» Людмилой Рудаковой.
Есть исследовательские центры, которые занимаются проведением опросов со знанием и соблюдением методологии. К их результатам можно относиться с меньшим скепсисом, чем к другим, но не забывать сверяться с описанными в карточках нюансами.
— Всероссийский центр исследования общественного мнения (ВЦИОМ)
— Фонд «Общественное Мнение» (ФОМ)
— Левада-Центр*
— Исследовательский холдинг «Российское общественное мнение и исследование рынка» (РОМИР)
— Russian Field
* Иноагент по версии Минюста РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12🐳1