Как объединить человеческий интеллект с компьютерным для получения более достоверной информации

Работники СМИ и защитники прав человека в течение десятилетий используют множество стратегий для того, чтобы проверять информацию в чрезвычайных ситуациях. Эта экспертиза пользуется все большим спросом с ростом количества контента, направленного пользователям.

Как объединить человеческий интеллект с компьютерным для получения более достоверной информации

Но многие все чаще обращаются к «продвинутым компьютерным вычислениям», чтобы ускорить и автоматизировать процесс верификации. Как и любая другая методика, использование продвинутых компьютерных технологий для верификации контента социальных медиа в реальном времени имеет свои преимущества и недостатки.

Развитые компьютерные технологии состоят из двух элементов: компьютерное исчисления и обработка данных человеком. Для первого используются процедуры естественной обработки языка (NLP — natural language processing) и машинных знаний (ML), тогда как человек использует методы краудсорсинга и микрозаданий.

Сегодня наступил важный момент в применении развитых компьютерных технологий для проверки контента, направленного пользователями: сразу три новых проекта развиваются в этой области. Здесь будет представлен их краткий обзор, а также развернутая информация о том, как в процессе верификации используются (и сочетаются) компьютерные технологии и обработка данных человеком. 

Обработка данных людьми

В сфере обработки данных, которые выполняет человек, и которые еще называют коллективной обработкой данных, машина передает определенные задачи на аутсорсинг человеку или коллективу людей. Затем машина собирает и анализирует полученные результаты.

Одним из ранних применений обработки данных человеком в чрезвычайных ситуациях можно считать то, что было внедрено после землетрясения на Гаити в 2010 году. Корпорация  Ushahidi создала тогда интернет-платформу  для обработки данных людьми для того, чтобы в режиме микрозаданий  выполнять быстрые переводы срочных текстовых сообщений с гаитянского  креольского языка на английский. Эти сообщения поступали от пострадавших от стихии сообществ Порт-о-Пренса и его окрестностей.Переведенные тексты были впоследствии обработаны и маркированы на Карте кризиса Ushahidi в Гаити.

Также метод обработки данных человеком использовался в 2012 году в ответ на Тайфун Пабло на Филиппинах. По требованию Организации Объединенных Наций Цифровая Гуманитарная Сеть (DHN) собрала и проанализировала все твиты, размещенные в течение первых 48 часов удара тайфуна по побережью . А точнее, DHN попросила добровольцев идентифицировать все изображения и видео, размещенные в Twitter, на которых был изображен вред, причиненный сильным ветром и дождем. Чтобы выполнить эту операцию, DHN использовала бесплатную платформу микрозаданий  на открытом коде CrowdCrafting , которая позволила присвоить теги персональным твитам и изображением. Обработанные данные использовались для создания кризисной карты разрушений, причиненных стихией.

Успех обработки данных человеком в ответ на Тайфун Пабло подтолкнул запуск новой, специализированной, платформы микрозаданий  под названием MicroMappers. Разработана на основе использования программного обеспечения CrowdCrafting, MicroMappers впервые была использована в сентябре 2013 года, чтобы теговать твиты и изображения, опубликованные онлайн после землетрясения Белуджистана . Эти действия были выполнены DHN в ответ на запрос ООН в Пакистане.

Подводя итог можно отметить, что обработка данных человеком только начинает получать поддержку в гуманитарной среде. Но до настоящего времени этот метод не использовался для проверки контента социальных медиа.

Платформа Истинно

Платформа Verily использует обработку данных человеком для быстрого сбора доказательств с помощью краудсорсинга, подтверждающего или опровергающего информацию, размещенную в социальных сетях. Ожидается, что Verily будет использоваться для того, чтобы помочь отсортировать противоречивые сообщения о вреде, причиненном бедствием, часто появляются во время и после больших катастроф. Конечно, платформу можно было бы использовать для верификации изображений и видео-сюжетов.

На создание Verily натолкнул Чемпионат воздушных шаров, проведение которого в 2009 году начало Агентство углубленных исследовательских проектов в оборонной отрасли (DARPA). Чемпионат требовал от участников корректной идентификации местоположения 10 красных погодных воздушных шаров, расположенных по всей территории Соединенных Штатов.

Победила команда Массачусетского технологического института, которая нашла все 10 воздушных шаров меньше чем за 9 часов, даже не отходя от своих компьютеров. Они использовали социальные сети и Твиттер, чтобы мобилизовать общественность. В начале соревнования команда объявила, что если они выиграют, то награду в сумме $40 000 не оставят себе, а разделят между теми, кто будет помогать искать воздушные шары. Более того, они поощряли людей приглашать членов их социальных сетей приобщиться к охоте, и написали: «Мы дадим 2000$ за воздушный шар первому человеку, который пришлет нам правильные координаты, но это не все — мы также дадим 1000$ человеку, который ее пригласил. А еще мы дадим 500$ тому, кто пригласил этого пригласителя, и 250$ дальше по цепочке «.

Платформа Verily использует тот же механизм стимулов в форме баллов.Вместо того, чтобы искать воздушные шары по всей стране, платформа помогает проверят сообщения из социальных медиа, отправленные во время бедствий, чтобы покрыть гораздо меньше географический район — как правило, город.

Рассматривайте Verily как доску Pinterest, к которому прикреплены элементы, содержащие вопросы, которые предусматривают ответы только «да» или «нет». Например: «Бруклинский мост закрыт из Сэнди?» Пользователи Verily могут распространить этот запрос на проверку в Twitter или Facebook, или отправить по электронной почте людям, которых они знают и которые живут вблизи этого места.

Те, кто имеет доказательства, соответствующие поставленной вопросу, публикуют их на доске Verily, в одной из двух секций: одна — для доказательств, отвечающих на вопросы проверки утвердительно; другая — для доказательств, поддерживающих отрицательный ответ.

Типы доказательств, которые могут быть опубликованы, включают текст, изображения и видео. Каждый фрагмент доказательств, который публикуется на доске Verily, должен быть дополнен пояснением от человека, который его размещает, чем это доказательство является релевантным и достоверным.

Параллельной целью проекта Verily также краудсорсинг критического мышления. 

Компьютерные вычисления

О землетрясении в 9 баллов, которое случилось в Чили в 2010 году, много писали в Twitter. Как обычно, в потоке твитов по поводу произошедшего было много слухов и ложной неподтвержденной  информации.

Одним из таких слухов было предупреждение о цунами в Вальпараисо. Другой слух касался  ограблений и мародерства в некоторых районах Сантьяго. И хотя такие типы слухов действительно распространяются, недавнее эмпирическое исследование продемонстрировало, что Twitter имеет механизм саморегулирования. Исследование твитов, опубликованных после чилийского землетрясения, показало, что пользователи Twitter, как правило, не поддерживают сомнительные твиты, ставя под сомнение их достоверность и правдивость.

Анализируя такие события, исследователи показали, что достоверность твитов можно спрогнозировать. Анализ связанных данных также определил, что твиты с определенными характеристиками часто являются фальшивыми. Например, длина твита, настроение слов, которые используются, количество хештегов и использование смайликов являются индикаторами, которые позволяют оценить достоверность сообщений. То же самое действительно и для твитов, содержащих ссылки на изображения и видео — язык, на котором написано детали, связанный с мультимедийным контентом, можно использовать для определения, является ли этот контент правдивым или нет.

Рассмотренные вместе, эти данные предоставляют компьютерам параметры и сведения, необходимые для начала прогнозирования точности твитов и другого контента социальных сетей. Это открывает двери к росту роли автоматизации в процессе верификации во время катастроф и других экстренных сообщений и чрезвычайных ситуаций.

С точки зрения практического применения, эти результаты используются для того, чтобы создать «Плагин Вероятности» для Twitter . 

Этот плагин будет оценивать каждый отдельный твит по шкале от 0 до 100, основываясь на вероятности, можно считать контент этого твита достоверным. 

Гибридные вычисления

Платформа искусственного интеллекта для реагирования на чрезвычайные ситуации (AIDR) является гибридной моделью обработки данных с использованием как людей, так и информационных технологий.

Платформа комбинирует обработку данных людьми (микрозадания) с компьютерными вычислениями (машинные знания). Получив большую задачу, платформа расщепляет ее на серию меньших задач.

AIDR позволяет пользователям научить машину алгоритма поиска информации по выбранной тематике в Twitter. Учебный процесс с использованием микрозадания. Например, если бы Красный Крест заинтересовался мониторингом сообщений в Twitter о повреждении инфраструктуры после стихийного бедствия, то его сотрудники использовали бы интерфейс микрозадания AIDR, чтобы обозначить (выбрать) отдельные твиты, которые связаны с повреждениями. Тогда бы алгоритм самообучался, и автоматически нашел бы дополнительные твиты, также связанные с повреждениями.

Такой подход гибридных вычислений может использоваться для автоматической идентификации слухов, основываясь на начальном наборе твитов, которые имеют отношение к этим слухам. Быстрая идентификация слухов и их источники являются важным компонентом проверки контента, направленного пользователями. Это позволяет журналистам и профессионалам по гуманитарным вопросам отслеживать информацию до ее источника, и узнавать, с кем связаться, чтобы сделать следующий существенный шаг в проверке информации.

Безусловно, цель должна заключаться не только в том, чтобы идентифицировать ложную или обманчивую информацию в социальных сетях, но и оспорить ее и быстрее исправить. Первая версия AIDR начала работать в ноябре 2013 года.

Ускорение процесса проверки

Как было отмечено ранее, возникновение первых платформ верификации, движками для которых были углубленные вычислительные методы, означает необходимость в понимании их конечной  ценность для верификации контента, направленного пользователями. Даже если эти платформы принесут плоды, их ранние версии будут иметь большие ограничения. Но эта ранняя работа важна для того, чтобы двигаться по направлению к мощных программам углубленных вычислений для процесса верификации.

Одно из текущих ограничений заключается в том, что AIDR и Плагин Вероятности, описанные выше, полностью зависят только от одного источника — Twitter. А для триангуляции сообщений по источникам, медиа и языке необходимы кросс-медийные платформы верификации. С другой стороны, Verily, которая почти удовлетворяет эту потребность, полностью полагается на вклад людей, и при этом не очень легко масштабируется.

В любом случае эти решения еще далеки от того, чтобы стать «магической пулей» верификации, которую многие ищут. Подобно другим информационным платформам, ими также могут спекулировать, и они могут саботироваться течение долгого времени. Однако эти инструменты обеспечивают возможность ускорения процесса верификации и, вероятно, будут только развиваться, по мере того, как в эти области будет инвестироваться больше усилий и ресурсов.

Оцените новость (статью)
Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (Пока оценок нет)
Загрузка...


Рейтинг популярных товаров наших читателей

Загрузка...
Загрузка...
Загрузка...
Загрузка...

Новость (статью) «Как объединить человеческий интеллект с компьютерным для получения более достоверной информации» подготовили журналисты издания Бизнес портал fdlx.com

Дата публикации: , последнее обновление страницы: 27.03.2015 15:12:16

Интересные новости в Украине и мире

Загрузка...
Загрузка...