Умный Город:
Улучшение принятия решений с помощью больших (и не очень) данных

Виктор Петухов, Сергей Журихин

Краткое введение в ИИ

  • Обучение с учителем, без учителя, с подкреплением, анализ данных
  • White box и black box
  • Повторение примера со светафором
  • Большая часть реальных проблем решается простыми моделями
    • TODO: Пример с ковидом и тем, как с ним надо бороться
  • Здесь мы сфокусируемся на анализе данных

О чём будем говорить?

  • Машинное обучение и статистика для поддержки принятия решений от уровня государств до отдельных индивидов;

  • Использование научного метода для лучшего управления государством и бизнесом;

  • Проблемы человеческого сознания, мешающие корректному принятию решений. Как данные помогают с ними бороться;

  • Какие проблемы человеческого сознания унаследовал искусственный интеллект. Введение в область Fairness in AI для автоматизации принятия решений;

  • Разбор конкретных проектов, направленных на реализацию «открытых правительств»;

Надо ли улучшать принятие решений?

  • Жизнь сложная
  • Мы плохо умеем оценивать качество наших решений
  • Мы плохо умеем оценивать нашу уверенность в качестве решиний
    • Эволюционное объяснение
  • TODO: пример из 80к с интерактивным голосованием
  • TODO: пример с 90% доверительными интервалами?
  • В конце топика сделать фокус на примерах плохих решений для компаний и правительств

 

Идеи:

  • Ссылки на metaculus, foretold, упоминание prediction markets и superforecasting

Как улучшить принятие решений?

  1. Индивидуальное принятие решений (калибровка)
    • Описание
    • Рассказать какие области можно калибровать, а какие - нет?
    • Дать пару ссылок на ресурсы
    • Упомянуть, что интуиция работает для задач, для которых она была эволюционно выработана
  2. Использование данных для принятия решений
    • Мы признаём, что не всё можем предсказать, и берём на вооружение научный метод
    • Начать с того, чтобы ввести сам концепт эксперимента, а потом уточнить о том, как можно собирать различные данные для понимания процесса

  3. Дизайн систем для уменьшения последствий индивидуальных искажений

    • Примеры с судьями

    • Упомянуть Ought и EA Geneva (gspi.ch)

    • Мини-введение в mechanism design?

    • Это можно рассказать вместе с пунктом про идеальную систему для принятия решений. По сути, пункт 2 - это просто один из элементов дизайна

В этой лекции я сфокусируюсь на пункте 2 и немного расскажу про пункт 3

Сделать голосование, чтобы понять что интересно?

Какие данные мы уже используем?

YouTube

Использование данных для принятия решений

История про бегуна, который доминировал все олимпийские игры?

Политические решения и их проблемы

  • ПАСАНЫ, НАУЧНЫЙ ПАДХОД!!!!!
  • Концепция эксперимента (примеры политических решений)
  •  

В этой лекции я сфокусируюсь на пункте 2 и немного расскажу про пункт 3

Построение карты: открытые правительства

  • 2000-й год: Канзас начал проводить ежеквартальные опросы 2500 случайно выбранных жителей.
     
  • Но оно использовалось только для отчётности, а не для принятия решений... Многие отделы игнорировали результаты, т.к. не понимали, как этот опрос связан с их деятельностью.
     
  • 2011-й: опрос обновлён, чтобы соответствовать конкретным целях определённых отделов. Теперь опрос является важным инструментом для постановки целей и оценки результатов.

Опрос граждан в Канзасе

Построение карты: открытые правительства

Городской рейтинг в Бостоне (CityScore)

  • Мэр Бостона инициировал создание личной информационной панели для оценки производительности города
     
  • Когда он стал опрашивать своих подчинённых на основании метрик из этой панели, другие департаменты создали свои индивидуальные панели, чтобы ответить на вопросы
     
  • Всё это было объединено в единую систему и опубликовано
     
  • Публикация спровоцировала дискуссию и более выбор более качественных метрик
     
  • Несколько других городов переиспользовало разработки для создания своей платформы

Построение карты: открытые правительства

Городская статистика в Балтиморе (cityStat)

Преимущества открытых правительств

  • Повышение вовлечённости и доверия граждан
  • Делигация анализа данных гражданам
  • Общество может шире использовать объективные данные при выработке предложений для государственной власти
  • Несмещённая оценка результатов работы
  • Сокращение рисков оппортунистического поведения для избежать возможных ошибок

Вспомним историю

  • 1941 – 1990: компьютер заменяет человека в базовых расчётах. Экспертные системы, исследование операций.
     
  • 1990 – 2000: в «искусственный интеллект» пришла статистика. Интернет-поиск, распознавание речи, персональные ассистенты.
     
  • 2000 – 2010: появление big data. Заря анализа данных. Электронные медицинские карты, социальные сети, гипер-таргетированная реклама. Hadoop, Map Reduce.
     
  • 2010 – 2015: обучение нейросетей на видеокартах. Взлёт нейронных сетей. Распознавание изображений, обучение с подкреплением.
     
  • 2015 – 2020: генеративные модели. Генерация текста, музыки, изображений. Вариационные автоенкодеры, трансформеры.
  • Планирование военных операций

  • Управление цепями поставок

  • Распределение работников по сменам

  • Распределение нагрузок в больницах

  • ещё десятки применений...

*см. полный список на wiki:
Operations research - Problems addressed

Исследование операций

Вспомним историю

  • 1941 – 1990: компьютер заменяет человека в базовых расчётах. Экспертные системы, исследование операций.
     
  • 1990 – 2000: в «искусственный интеллект» пришла статистика. Интернет-поиск, распознавание речи, персональные ассистенты.
     
  • 2000 – 2010: появление big data. Заря анализа данных. Электронные медицинские карты, социальные сети, гипер-таргетированная реклама. Hadoop, Map Reduce.
     
  • 2010 – 2015: обучение нейросетей на видеокартах. Взлёт нейронных сетей. Распознавание изображений, обучение с подкреплением.
     
  • 2015 – 2020: генеративные модели. Генерация текста, музыки, изображений. Вариационные автоенкодеры, трансформеры.
  • Интернет-поиск
  • Персональные ассистенты

Вспомним историю

  • 1941 – 1990: компьютер заменяет человека в базовых расчётах. Экспертные системы, исследование операций.
     
  • 1990 – 2000: в «искусственный интеллект» пришла статистика. Интернет-поиск, распознавание речи, персональные ассистенты.
     
  • 2000 – 2010: появление big data. Заря анализа данных. Электронные медицинские карты, социальные сети, гипер-таргетированная реклама. Hadoop, Map Reduce.
     
  • 2010 – 2015: обучение нейросетей на видеокартах. Взлёт нейронных сетей. Распознавание изображений, обучение с подкреплением.
     
  • 2015 – 2020: генеративные модели. Генерация текста, музыки, изображений. Вариационные автоенкодеры, трансформеры.

Большие данные

  • Построение "карты" за счёт данных
  • Анализ социальных сетей
  • Метрики, основанные на данных
  • Открытые правительства

Вспомним историю

  • 1941 – 1990: компьютер заменяет человека в базовых расчётах. Экспертные системы, исследование операций.
     
  • 1990 – 2000: в «искусственный интеллект» пришла статистика. Интернет-поиск, распознавание речи, персональные ассистенты.
     
  • 2000 – 2010: появление big data. Заря анализа данных. Электронные медицинские карты, социальные сети, гипер-таргетированная реклама. Hadoop, Map Reduce.
     
  • 2010 – 2015: обучение нейросетей на видеокартах. Взлёт нейронных сетей. Распознавание изображений, обучение с подкреплением.
     
  • 2015 – 2020: генеративные модели. Генерация текста, музыки, изображений. Вариационные автоенкодеры, трансформеры.

Глубокие нейронные сети

Анализ текстов, речи, изображений и видео:

  • Классификация твитов
  • Анализ записей камер наблюдения
  • Распознавание лиц
  • ...

Вспомним историю

  • 1941 – 1990: компьютер заменяет человека в базовых расчётах. Экспертные системы, исследование операций.
     
  • 1990 – 2000: в «искусственный интеллект» пришла статистика. Интернет-поиск, распознавание речи, персональные ассистенты.
     
  • 2000 – 2010: появление big data. Заря анализа данных. Электронные медицинские карты, социальные сети, гипер-таргетированная реклама. Hadoop, Map Reduce.
     
  • 2010 – 2015: обучение нейросетей на видеокартах. Взлёт нейронных сетей. Распознавание изображений, обучение с подкреплением.
     
  • 2015 – 2020: генеративные модели. Генерация текста, музыки, изображений. Вариационные автоенкодеры, трансформеры.

Генерация кратких конспектов

Вспомним историю

  • 1941 – 1990: компьютер заменяет человека в базовых расчётах. Экспертные системы, исследование операций.
     
  • 1990 – 2000: в «искусственный интеллект» пришла статистика. Интернет-поиск, распознавание речи, персональные ассистенты.
     
  • 2000 – 2010: появление big data. Заря анализа данных. Электронные медицинские карты, социальные сети, гипер-таргетированная реклама. Hadoop, Map Reduce.
     
  • 2010 – 2015: обучение нейросетей на видеокартах. Взлёт нейронных сетей. Распознавание изображений, обучение с подкреплением.
     
  • 2015 – 2020: генеративные модели. Генерация текста, музыки, изображений. Вариационные автоенкодеры, трансформеры.

Есть модели для извлечения информации из сложных данных

Есть мат. модели основных процессов. Есть много успешных случаев внедрения моделей исследования операций.

Нет настроенных потоков данных для решения гос. проблем. Также нет практик использования данных.

Есть рабочие методы машинного обучения

Генеративные модели ещё не готовы для широкого использования

Примеры существующих проектов

Автоматический анализ отравлений в Чикаго и Нью-Йорке

Таргетирование пожарных инспекций в Атланте (проект Firebird)

Defense Advanced Research Projects Agency

  • Полный анализ траффика
  • Поиск торговли несовершеннолетними
  • Машинный перевод для анализа огромных объёмов информации на разных языках для определения того, какая инвормация важна для гос. безопасности

Предсказание незарегистрированных арендодателей

  • В Лондоне решили открыть Отдел Анализа Данных (London Office of Data Analysis, LODA)
     
  • Представители разных районов города предложили 20 разных идей возможных проектов. Из них было выбрано 6.

Цели проекта:

  1. Проверить, что координированный анализ данных с разных районов даёт результаты, недостежимые врознь
     
  2. Проверить, может ли структура Office of Data Analysis быть применена в Лондоне
     
  3. Собрать информацию для построения оптимальной структуры Отдела Анализа Данных в Лондоне

Предсказание незарегистрированных арендодателей

  • В Лондоне решили открыть Отдел Анализа Данных (London Office of Data Analysis, LODA)
     
  • Представители разных районов города предложили 20 разных идей возможных проектов. Из них было выбрано 6.
     
  • Проекты были оценены по четырём критериям
     
  • Был выбран проект по улучшению условий жилья

Критерии оценки проектов:

  • Существенно уменьшает расходы
  • Имеет хорошие доступные данные
  • Реализация розволяет получить конкретные результаты в течение двух месяцев
  • Может быть решён в основном за счёт неперсанализируемых данных

Предсказание незарегистрированных арендодателей

  • В Лондоне решили открыть Отдел Анализа Данных (London Office of Data Analysis, LODA)
     
  • Представители разных районов города предложили 20 разных идей возможных проектов. Из них было выбрано 6.
     
  • Проекты были оценены по четырём критериям
     
  • Был выбран проект по улучшению условий жилья

Предсказание незарегистрированных арендодателей

  • Два района начали работу с командой data science для поиска признаков, помогающих определить жильё
     
  • Только один из двух районов смог предоставить достаточно подробные данные
     
  • Оказалось, что в обучающей выборке были только положительные метки. Был выбран метод Balanced Random Forest.
     
  • Было выбрано две метрики работы модели: >50% из имеющихся арендуемых добов должны быть распознаны, а суммарное число распознаных домов должно быть 1-4% от полного числа домов
     
  • Производительность модели: 50% известных домов определено, 3.3% от общего числа домов определены как арендуемые

Предсказание незарегистрированных арендодателей

  • Классификатор не обобщался на разные районы. Было отдельный классификатор был создан для каждого района.
     
  • Предоставленные данные были в ужасном качестве, и значительные усилия были потрачены на их чистку.
     
  • Идея провести рандомизированные контролируемые испытания оказалась слишком сложной - началась простая проверка домов, выданных алгоритмом.
     
  • Только 4 из 12 районов предоставили достаточно данных
     
  • Ни одного нового арендуемого дома не было найдено

Предсказание незарегистрированных арендодателей

  • Имеющиеся данные никак не стандартизированы. Отсутствие единой системы колоссально усложняет процесс обмена данными.
     
  • Последующие инициативы должны начинаться с оценки качества данных каждой участвующей организации.
     
  • Когда возможно, должны быть рассмотрены дополнительные источники данных
     
  • Основой проектов, таких как LODA, является коллаборация между людьми в новом формате, а не новые методы анализа данных
     
  • Обмен данными даже внутри одной организации включает множество юридических вопросов, и Отдел Анализа Данных должен быть "экипирован" собственными юристами

Вынесенные уроки

Предсказание нагрузок больниц в Квинсленде

Предсказание нагрузок больниц в Квинсленде

  1. Использовать анализ первопричин для оценки ключевых проблем в принятии решений
     
  2. Вовлечь исполнительного спонсора и ключевых ЛПР в проект
     
  3. Разработать методы для распределения коек
     
  4. Разработать, протестировать и улучшить рабочие процессы
     
  5. Официально внедрить разработанные процессы в систему
     
  6. Оценить изменения потоков пациентов в результате внедрения
  • Проблемы коммуникации между заведующими потоком пациентов
     
  • Отсутствие конкретных процедурных указов об этом
     
  • Отсутствие автономии в принятии решений у заведующих распределением коек

Предсказание нагрузок больниц в Квинсленде

  1. Использовать анализ первопричин для оценки ключевых проблем в принятии решений
     
  2. Вовлечь исполнительного спонсора и ключевых ЛПР в проект
     
  3. Разработать методы для распределения коек
     
  4. Разработать, протестировать и улучшить рабочие процессы
     
  5. Официально внедрить разработанные процессы в систему
     
  6. Оценить изменения потоков пациентов в результате внедрения

Предсказание нагрузок больниц в Квинсленде

  1. Использовать анализ первопричин для оценки ключевых проблем в принятии решений
     
  2. Вовлечь исполнительного спонсора и ключевых ЛПР в проект
     
  3. Разработать методы для распределения коек
     
  4. Разработать, протестировать и улучшить рабочие процессы
     
  5. Официально внедрить разработанные процессы в систему
     
  6. Оценить изменения потоков пациентов в результате внедрения

Модель ARIMA

Предсказание нагрузок больниц в Квинсленде

  1. Использовать анализ первопричин для оценки ключевых проблем в принятии решений
     
  2. Вовлечь исполнительного спонсора и ключевых ЛПР в проект
     
  3. Разработать методы для распределения коек
     
  4. Разработать, протестировать и улучшить рабочие процессы
     
  5. Официально внедрить разработанные процессы в систему
     
  6. Оценить изменения потоков пациентов в результате внедрения

Gold Coast Hospital improved its waiting time performance by 20% using the tool, while one estimate put the financial returns for the state of Queensland as high as $80 million USD per year. This comprises $77.5 million from improved patient outcomes, while hospitals benefit from $2.5 million worth of efficiency savings.

Выводы

  • Ошибки будут
  • Данные - ключ к успеху (но помним про GDPR)
  • Сложные методы нужны для извлечения информации из текста, изображений или видео. Когда информация есть - сложные методы не нужны.

  • Нужно помнить про дизайн систем!
  • Идеальная система должна масштабироваться на другие города

Перспективы: более полная автоматизация решений

  • Вспомним про генерацию конспектов. Насколько мы можем им доверять?
  • Есть пример из reddit summaries. И тут мы приходим к проблеме зависимости от истории.
    • Это Confirmation bias
  • И это та же проблема, которую мы обсуждали на прошлом вебинаре в случае с судьями.
  • И это накладывает отдельное требование на наши модели: верифицируемость. Мы должны понимать, почему модель рекомендует то, что рекомендует. Возьмём пример с отравлениями в ресторанах. Предположим, что каждый из предсказанных ресторанов действительно отравляет людей. Хорошая ли модель? Может быть, но если эти рестораны выбраны неравномерно. Например, люди отравившиеся в элитных ресторанах пишут об этом гораздо чаще, чем люди из простых кафе. В результате мы защищаем элиту от отравлений, в то время как большая часть населений остаётся без защиты.
    • Вывод: если модель влияет на жизнь людей, то мы хотим понимать, почему она делает то, что делает, и нет ли там видимых проблем.
    • Этот вопрос набрал популярность именно по отношению к компьютерным моделям, хотя он также уместен для людей.

Перспективы: более полная автоматизация решений

Group vs individual fairness

Перспективы: более полная автоматизация решений

  • Дополнительная проблема полной автоматизации решений - выравнивание ценностей. По сути, большая часть имеющихся алгоритмов училась подражать людям. Так, GPT-3 учился генерировать продолжения текста. То есть если мы ему задаём вопрос - он пытается сымитировать среднего собеседника в интернете. Это - совершенно не то, что нам нужно.

TODO: remove this part?

Дизайн систем

  • Если, например, мы просто наладим сбор данных - этого совершенно недостаточно для их правильного использования.
  • Мы уже упоминали confirmation bias
  • Проблема modus ponens?
  • Здесь нужно ещё упомянуть набор biases, которые можно решить только дизайном системы
  • Очень маленькое введение в mechanism design
    • На примере проблем в AI Fairness
  • TODO: Что ещё можно изменить в системе?

"Идеальная" система принятия решений

  • У всех людей есть эволюционно заложенные когнитивные искажения. Если есть возможность - откалибруйте, если нет - просто имейте ввиду.
  • Данные о мире - это наша карта местности. В наших интересах сделать её как можно более точной.
  • Научный подход - это метод постоянного поиска ошибок. Не бойтесь ошибиться!
  • Не гонитесь за алгоритмами. Если у вас есть хорошая карта - (искуственные) нейронные сети не нужны, чтобы принимать по ней решения.
  • Если алгоритмы принимают решения в вашей системе - нужно понимать, на чём они основываются (если люди - тоже).
  • Лучший в мире анализ данных бесполезен, если он не используется при принятии решений. Улучшайте вашу систему.

Умный Город: Улучшение принятия решений с помощью больших (и не очень) данных

By Viktor Petukhov

Умный Город: Улучшение принятия решений с помощью больших (и не очень) данных

  • 626