Дерево решений как строить


Правильное дерево решений для правильного выбора

Рассказываем, как правильно использовать дерево решений для машинного обучения, визуализации данных и наглядной демонстрации процесса принятия решений. Пригодится не только аналитикам данных, но и тем, кто хочет найти методику, помогающую более взвешенно принимать решения в жизни и бизнесе.

Основные задачи, которые дерево решений решает в машинном обучении, анализе данных и статистике:

Деревья решений также могут помочь визуализировать процесс принятия решения и сделать правильный выбор в ситуациях, когда результаты одного решения влияют на результаты следующих решений. Попробуем объяснить, как это работает на простых примерах из жизни.

Что такое дерево решений

Визуально дерево решений можно представить как карту возможных результатов из ряда взаимосвязанных выборов. Это помогает сопоставить возможные действия, основываясь на их стоимости (затратах), вероятности и выгоде.

Как понятно из названия, для этого используют модель принятия решений в виде дерева. Такие древовидные схемы могут быть полезны и в процессе обсуждения чего-либо, и для составления алгоритма, который математически определяет наилучший выбор.

Обычно дерево решений начинается с одного узла, который разветвляется на возможные результаты. Каждый из них продолжает схему и создает дополнительные узлы, которые продолжают развиваться по тому же признаку. Это придает модели древовидную форму.

Энтропия и деревья принятия решений / Хабр

Деревья принятия решений являются удобным инструментом в тех случаях, когда требуется не просто классифицировать данные, но ещё и объяснить почему тот или иной объект отнесён к какому-либо классу.

Давайте сначала, для полноты картины, рассмотрим природу энтропии и некоторые её свойства. Затем, на простом примере, увидим каким образом использование энтропии помогает при создании классификаторов. После чего, в общих чертах сформулируем алгоритм построения дерева принятия решений и его особенности.

Комбинаторная энтропия

Рассмотрим множество разноцветных шариков: 2 красных, 5 зеленых и 3 желтых. Перемешаем их и расположим в ряд. Назовём эту операцию перестановкой:

Давайте посчитаем количество различных перестановок, учитывая что шарики одного цвета — неразличимы.

Если бы каждый шарик имел уникальный цвет, то количество перестановок было бы 10!, но если два шарика одинакового цвета поменять местами — новой перестановки не получится. Таким образом, нужно исключить 5! перестановок зеленых шариков между собой (а также, 3! желтых и 2! красных). Поэтому, в данном случае, решением будет:

Мультиномиальний коэффициент позволяет рассчитать количество перестановок в общем случае данной задачи: (Ni — количество одинаковых шариков каждого цвета).

Все перестановки можно пронумеровать числами от 0 до (W — 1). Следовательно, строка из log2(W) бит однозначно кодирует каждую из перестановок.

Поскольку перестановка состоит из N шариков, то среднее количество бит, приходящихся на один элемент перестановки можно выразить как:

Эта величина называется комбинаторной энтропией:

Чем более однородно множество (преобладают шарики какого-то одного цвета) — тем меньше его комбинаторная энтропия, и наоборот — чем больше различных элементов в множестве, тем выше его энтропия.

Энтропия Шеннона

Давайте рассмотрим подробнее описанное выше выражение для энтропии:

Учитывая свойства логарифмов, преобразуем формулу следующим образом:

Предположим, что количество шариков достаточно велико для того чтобы воспользоваться формулой Стирлинга:

Применив формулу Стирлинга, получаем:

(где k — коэффициент перехода к натуральным логарифмам)

Учитывая что выражение можно преобразовать:

Поскольку общее количество шариков N, а количество шариков i-го цвета — Ni, то вероятность того, что случайно выбранный шарик будет именно этого цвета является: . Исходя из этого, формула для энтропии примет вид:

Данное выражение является энтропией Шенонна.

При более тщательном выводе можно показать, что энтропия Шенонна является пределом для комбинаторной энтропии, поэтому её значение всегда несколько больше значения комбинаторной энтропии.

Сравнение двух энтропий представлено на следующем рисунке, который рассчитан для множеств, содержащих два типа объектов — А и В (суммарное количество элементов в каждом множестве — 100):

Термодинамика

Аналогичные выражения для энтропии можно получить в термодинамике:

Понятие энтропии играет фундаментальную роль в термодинамике, фигурируя в формулировке Второго начала термодинамики: если изолированная макроскопическая система находится в неравновесном состоянии, то наиболее вероятным является её самочинный переход в состояние с большим значением энтропии:

Демон Максвелла

Чтобы подчеркнуть статистическую природу Второго начала термодинамики в 1867 году Джеймс Максвелл предложил мысленный эксперимент: «Представим сосуд, заполненный газом определённой температуры, сосуд разделен перегородкой с заслонкой, которую демон открывает чтобы пропускать быстрые частицы в одну сторону, а медленные — в другую. Следовательно, спустя некоторое время, в одной части сосуда сконцентрируются быстрые частицы, а в другой — медленные. Таким образом, вопреки Второму началу термодинамики, демон Максвелла может уменьшать энтропию замкнутой системы»:


Позже, Лео Сциллард разрешил парадокс, но это обсуждение несколько выходит за рамки данной статьи.

Демон Максвелла == Классификатор

Если вместо «быстрых» и «медленных» частиц рассматривать объекты, принадлежащие к различным классам, тогда демона Максвелла можно рассматривать в качестве своеобразного классификатора.

Сама формулировка парадокса подсказывает алгоритм обучения: нужно находить правила (предикаты), на основе которых разбивать тренировочный набор данных, таким образом, чтобы уменьшалось среднее значение энтропии. Процесс деления множества данных на части, приводящий к уменьшению энтропии, можно рассматривать как производство информации.

Разбив исходный набор данных на две части по некому предикату, можно рассчитать энтропию каждого подмножества, после чего рассчитать среднее значение энтропии — если оно окажется меньшим чем энтропия исходного множества, значит предикат содержит некую обобщающую информацию о данных.

Для примера, рассмотрим множество двухцветных шариков, в котором цвет шарика зависит только от координаты х:
(из практических соображений, при расчётах удобно использовать энтропию Шеннона)

Из рисунка видно что если разделить множество на две части, при условии что одна часть будет содержать все элементы с координатой х ≤ 12, а другая часть — все элементы, у которых х > 12, то средняя энтропия будет меньше исходной на ∆S. Это значит, что данный предикат обобщает некоторую информацию о данных (легко заметить, что при х > 12 — почти все шарики жёлтые).

Если использовать относительно простые предикаты («больше», «меньше», «равно» и т.п.) — то, скорее всего, одного правила будет недостаточно для создания полноценного классификатора. Но процедуру поиска предикатов можно повторять рекурсивно для каждого подмножества. Критерием остановки является нулевое (или очень маленькое) значение энтропии. В результате получается древовидный набор условий, который называется Деревом принятия решений:


Листьями дерева принятия решений являются классы. Чтобы классифицировать объект при помощи дерева принятия решений — нужно последовательно спускаться по дереву (выбирая направление основываясь на значениях предикатов применяемых к классифицируемому объекту). Путь от корня дерева до листьев можно трактовать как объяснение того, почему тот или иной объект отнесён к какому-либо классу.

В рассмотренном примере, для упрощения, все объекты характеризуются только одним атрибутом — координатой х, но точно такой же подход можно применить и к объектам со множественными атрибутами.

Также, не накладывается ограничений на значения атрибутов объекта — они могут иметь как категориальную, так и числовую или логическую природу. Нужно только определить предикаты, которые умеют правильно обрабатывать значения атрибутов (например, вряд ли есть смысл использовать предикаты «больше» или «меньше» для атрибутов с логическими значениями).

Алгоритм построения дерева принятия решений

В общих чертах, алгоритм построения дерева принятия решений можно описать следующим образом:
(мне кажется, что алгоритм описанный «человеческим языком» легче для восприятия)
s0 = вычисляем энтропию исходного множества Если s0 == 0 значит: Все объекты исходного набора, принадлежат к одному классу Сохраняем этот класс в качестве листа дерева Если s0 != 0 значит: Ищем предикат, который разбивает исходное множество таким образом чтобы уменьшилось среднее значение энтропии Найденный предикат является частью дерева принятия решений, сохраняем его Разбиваем исходное множество на подмножества, согласно предикату Повторяем данную процедуру рекурсивно для каждого подмножества 

Что значит «ищем предикат»?
Как вариант, можно считать, что на основе каждого элемента исходного множества можно построить предикат, который разбивает множество на две части. Следовательно, алгоритм можно переформулировать:
s0 = вычисляем энтропию исходного множества Если s0 == 0 значит: Все объекты исходного набора, принадлежат к одному классу Сохраняем этот класс в качестве листа дерева Если s0 != 0 значит: Перебираем все элементы исходного множества: На основе каждого элемента генерируем предикат, который разбивает исходное множество на два подмножества Рассчитываем среднее значение энтропии Вычисляем ∆S Нас интересует предикат, с наибольшим значением ∆S Найденный предикат является частью дерева принятия решений, сохраняем его Разбиваем исходное множество на подмножества, согласно предикату Повторяем данную процедуру рекурсивно для каждого подмножества 

Как можно «на основе каждого элемента множества генерировать предикат»?
В самом простом случае, можно использовать предикаты, которые относятся только к значению какого-нибудь атрибута (например «x ≥ 12», или «цвет == жёлтый» и т.п.). Следовательно, алгоритм примет вид:
s0 = вычисляем энтропию исходного множества Если s0 == 0 значит: Все объекты исходного набора, принадлежат к одному классу Сохраняем этот класс в качестве листа дерева Если s0 != 0 значит: Перебираем все элементы исходного множества: Для каждого элемента перебираем все его атрибуты: На основе каждого атрибута генерируем предикат, который разбивает исходное множество на два подмножества Рассчитываем среднее значение энтропии Вычисляем ∆S Нас интересует предикат, с наибольшим значением ∆S Найденный предикат является частью дерева принятия решений, сохраняем его Разбиваем исходное множество на подмножества, согласно предикату Повторяем данную процедуру рекурсивно для каждого подмножества 

На самом деле, если рассматривать классифицируемые объекты как точки в многомерном пространстве, то можно увидеть, что предикаты, разделяющие множество данных на подмножества, являются гиперплоскостями, а процедура обучения классификатора является поиском ограничивающих объёмов (в общем, как и для любого другого вида классификаторов).

Главным достоинством является, получаемая в результате, древовидная структура предикатов, которая позволяет интерпретировать результаты классификации (хотя в силу своей «жадности», описанный алгоритм, не всегда позволяет обеспечить оптимальность дерева в целом).

Одним из краеугольных камней описанного алгоритма является критерий остановки при построении дерева. В описанных выше псевдокодах, я прекращал построение дерева только при достижении множества, в котором все элементы принадлежат к одному классу (энтропия == 0). Такой подход позволяет полностью подогнать дерево принятия решений под обучающую выборку данных, но это не всегда эффективно с практической точки зрения (полученное дерево является переобученным).

Одним из возможных критериев остановки может быть небольшое значение ∆S. Но при таком подходе, всё же, невозможно дать универсальный совет: при каких значениях ∆S следует прекращать построение дерева.

Random forest

Чтобы не заморачиваться над критерием остановки при построении дерева, можно поступить следующим образом: выбирать случайные подмножества из обучающей выборки данных, и для каждого подмножества строить своё дерево принятия решений (в принципе, даже не важно какой критерий остановки будет использоваться):

Полученный в результате ансамбль деревьев (упрощённая версия Random forest) можно использовать для классификации, прогоняя классифицируемый объект через все деревья. Каждое дерево как будто «голосует» за принадлежность объекта к определённому классу. Таким образом, на основе того, какая часть деревьев проголосовала за тот или иной класс — можно заключить с какой вероятностью объект принадлежит к какому либо классу.

Данный метод позволяет достаточно адекватно обрабатывать пограничные области данных:

Можно заметить, что единичное дерево принятия решений описывает область, которая полностью содержит красные точки, в то время как ансамбль деревьев описывает фигуру, которая более близка к окружности.

Если есть желание поэкспериментировать

Я создал небольшое приложение, для сравнения дерева принятия решений и random forest. При каждом запуске приложения создаётся случайный набор данных, соответствующий красному кругу на зелёном фоне, а в результате выполнения приложения получается картинка, типа той, которая изображена выше.
Исходники есть на гитхабе.
Вместо заключения

Деревья принятия являются неплохой альтернативой, в тех случаях когда надоедает подстраивать абстрактные веса и коэффициенты в других алгоритмах классификации, либо, когда приходится обрабатывать данные со смешанными (категориальными и числовыми) атрибутами.
Дополнительная информация

  1. Яцимирский В.К. Физическая химия (здесь довольно неплохо описано понятие энтропии, а также рассматриваются некоторые философские аспекты данного феномена)
  2. Интересный тред про сжатие и энтропию на compression.ru
  3. Ещё одна статья о деревьях принятия решений на Хабре
  4. Toby Segaran, Programming Collective Intelligence (в данной книге есть глава посвящённая деревьям принятия решений, и вообще, если Вы ещё не читали этой книги — советую обязательно заглянуть туда :-)
  5. Такие библиотеки как Weka и Apache Mahout содержат реализацию деревьев принятия решений.

Деревья решений и алгоритмы их построения

Сегодня мы поговорим об одном из классических методов интеллектуального анализа данных (англ. data mining) – построении деревьев решений, расскажем о его основных принципах и подробнее остановимся на алгоритмах его реализации.

Что такое дерево принятия решений?

Согласно наиболее общему определению, дерево принятия решений – это средство поддержки принятия решений при прогнозировании, широко применяющееся в статистике и анализе данных. Нас с вами больше интересует второй вариант использования, однако прежде чем перейти к вопросам о пользе деревьев решений для мира больших данных и конкретным алгоритмам, хотелось бы упомянуть о важнейших понятиях, связанных с методом в целом.

Итак, дерево решений, подобно его «прототипу» из живой природы, состоит из «ветвей» и «листьев». Ветви (ребра графа) хранят в себе значения атрибутов, от которых зависит целевая функция; на листьях же записывается значение целевой функции. Существуют также и другие узлы – родительские и потомки – по которым происходит разветвление, и можно различить случаи.

Пример использования

Цель всего процесса построения дерева принятия решений – создать модель, по которой можно было бы классифицировать случаи и решать, какие значения может принимать целевая функция, имея на входе несколько переменных.

Как пример, представим случай, когда необходимо принять решение о выдаче кредита (целевая функция может принимать значения «да» и «нет») на основе информации о клиенте (несколько переменных: возраст, семейное положение, уровень дохода и так далее). К примеру, переменная «возраст» с атрибутом «менее 21 одного года = да» сразу приведет от корневого узла дерева к его листу, причем целевая функция «выдача кредита» примет значение «нет». Если возраст составляет более 21 года, то ветвь приведет нас к очередному узлу, который, к примеру, «спросит» нас об уровне дохода клиента. Таким образом, классификация каждого нового случая происходит при движении вниз до листа, который и укажет нам значение целевой функции в каждом конкретном случае.

Общий алгоритм построения дерева принятия решения

Предлагаем рассмотреть на нашем примере общий алгоритм построения дерева, чтобы затем перейти к его частным случаям:

Основная проблема, очевидно, кроется в первом шаге – на каком основании выбирается каждый следующий атрибут Q? На этот вопрос существует несколько ответов в виде частных алгоритмов принятия решений – главными из которых являются алгоритмы ID3, C4.5 и CART

Основные частные алгоритмы

  1. ID3. В основе этого алгоритма лежит понятие информационной энтропии – то есть, меры неопределенности информации (обратной мере информационной полезности величины). Для того чтобы определить следующий атрибут, необходимо подсчитать энтропию всех неиспользованных признаков относительно тестовых образцов и выбрать тот, для которого энтропия минимальна. Этот атрибут и будет считаться наиболее целесообразным признаком классификации.
  2. C5. Этот алгоритм – усовершенствование предыдущего метода, позволяющее, в частности, «усекать» ветви дерева, если оно слишком сильно «разрастается», а также работать не только с атрибутами-категориями, но и с числовыми. В общем-то, сам алгоритм выполняется по тому же принципу, что и его предшественник; отличие состоит в возможности разбиения области значений независимой числовой переменной на несколько интервалов, каждый из которых будет являться атрибутом. В соответствии с этим исходное множество делится на подмножества. В конечном итоге, если дерево получается слишком большим, возможна обратная группировка – нескольких узлов в один лист. При этом, поскольку перед построением дерева ошибка классификации уже учтена, она не увеличивается.
  3. CART. Алгоритм разработан в целях построения так называемых бинарных деревьев решений – то есть тех деревьев, каждый узел которых при разбиении «дает» только двух потомков. Грубо говоря, алгоритм действует путем разделения на каждом шаге множества примеров ровно напополам – по одной ветви идут те примеры, в которых правило выполняется (правый потомок), по другой – те, в которых правило не выполняется (левый потомок). Таким образом, в процессе «роста» на каждом узле дерева алгоритм проводит перебор всех атрибутов, и выбирает для следующего разбиения тот, который максимизирует значение показателя, вычисляемого по математической формуле и зависящего от отношений числа примеров в правом и левом потомке к общему числу примеров.

Резюме

Деревья принятий решений – один из основных и наиболее популярных методов помощи в принятии решений. Действительно, построение деревьев решений позволяет наглядно продемонстрировать другим и разобраться самому в структуре данных, создать работающую модель классификации данных, какими бы «большими» они ни были.

НОУ ИНТУИТ | Лекция | Методы классификации и прогнозирования. Деревья решений

Аннотация: Описывается метод деревьев решений. Рассматриваются элементы дерева решения, процесс его построения. Приведены примеры деревьев, решающих задачу классификации. Даны алгоритмы конструирования деревьев решений CART и C4.5.

Метод деревьев решений (decision trees) является одним из наиболее популярных методов решения задач классификации и прогнозирования. Иногда этот метод Data Mining также называют деревьями решающих правил, деревьями классификации и регрессии.

Как видно из последнего названия, при помощи данного метода решаются задачи классификации и прогнозирования.

Если зависимая, т.е. целевая переменная принимает дискретные значения, при помощи метода дерева решений решается задача классификации.

Если же зависимая переменная принимает непрерывные значения, то дерево решений устанавливает зависимость этой переменной от независимых переменных, т.е. решает задачу численного прогнозирования.

Впервые деревья решений были предложены Ховилендом и Хантом (Hoveland, Hunt) в конце 50-х годов прошлого века. Самая ранняя и известная работа Ханта и др., в которой излагается суть деревьев решений - "Эксперименты в индукции" ("Experiments in Induction") - была опубликована в 1966 году.

В наиболее простом виде дерево решений - это способ представления правил в иерархической, последовательной структуре. Основа такой структуры - ответы "Да" или "Нет" на ряд вопросов.

На рис. 9.1 приведен пример дерева решений, задача которого - ответить на вопрос: "Играть ли в гольф?" Чтобы решить задачу, т.е. принять решение, играть ли в гольф, следует отнести текущую ситуацию к одному из известных классов (в данном случае - "играть" или "не играть"). Для этого требуется ответить на ряд вопросов, которые находятся в узлах этого дерева, начиная с его корня.

Первый узел нашего дерева "Солнечно?" является узлом проверки, т.е. условием. При положительном ответе на вопрос осуществляется переход к левой части дерева, называемой левой ветвью, при отрицательном - к правой части дерева. Таким образом, внутренний узел дерева является узлом проверки определенного условия. Далее идет следующий вопрос и т.д., пока не будет достигнут конечный узел дерева, являющийся узлом решения. Для нашего дерева существует два типа конечного узла: "играть" и "не играть" в гольф.

В результате прохождения от корня дерева (иногда называемого корневой вершиной) до его вершины решается задача классификации, т.е. выбирается один из классов - "играть" и "не играть" в гольф.


Рис. 9.1. Дерево решений "Играть ли в гольф?"

Целью построения дерева решения в нашем случае является определение значения категориальной зависимой переменной.

Итак, для нашей задачи основными элементами дерева решений являются:

Корень дерева: "Солнечно?"

Внутренний узел дерева или узел проверки: "Температура воздуха высокая?", "Идет ли дождь?"

Лист, конечный узел дерева, узел решения или вершина: "Играть", "Не играть"

Ветвь дерева (случаи ответа): "Да", "Нет".

В рассмотренном примере решается задача бинарной классификации, т.е. создается дихотомическая классификационная модель. Пример демонстрирует работу так называемых бинарных деревьев.

В узлах бинарных деревьев ветвление может вестись только в двух направлениях, т.е. существует возможность только двух ответов на поставленный вопрос ("да" и "нет").

Бинарные деревья являются самым простым, частным случаем деревьев решений. В остальных случаях, ответов и, соответственно, ветвей дерева, выходящих из его внутреннего узла, может быть больше двух.

Рассмотрим более сложный пример. База данных, на основе которой должно осуществляться прогнозирование, содержит следующие ретроспективные данные о клиентах банка, являющиеся ее атрибутами: возраст, наличие недвижимости, образование, среднемесячный доход, вернул ли клиент вовремя кредит. Задача состоит в том, чтобы на основании перечисленных выше данных (кроме последнего атрибута) определить, стоит ли выдавать кредит новому клиенту.

Как мы уже рассматривали в лекции, посвященной задаче классификации, такая задача решается в два этапа: построение классификационной модели и ее использование.

На этапе построения модели, собственно, и строится дерево классификации или создается набор неких правил. На этапе использования модели построенное дерево, или путь от его корня к одной из вершин, являющийся набором правил для конкретного клиента, используется для ответа на поставленный вопрос "Выдавать ли кредит?"

Правилом является логическая конструкция, представленная в виде "если : то :".

На рис. 9.2. приведен пример дерева классификации, с помощью которого решается задача "Выдавать ли кредит клиенту?". Она является типичной задачей классификации, и при помощи деревьев решений получают достаточно хорошие варианты ее решения.


Рис. 9.2. Дерево решений "Выдавать ли кредит?"

Как мы видим, внутренние узлы дерева (возраст, наличие недвижимости, доход и образование) являются атрибутами описанной выше базы данных. Эти атрибуты называют прогнозирующими, или атрибутами расщепления (splitting attribute). Конечные узлы дерева, или листы, именуются метками класса, являющимися значениями зависимой категориальной переменной "выдавать" или "не выдавать" кредит.

Каждая ветвь дерева, идущая от внутреннего узла, отмечена предикатом расщепления. Последний может относиться лишь к одному атрибуту расщепления данного узла. Характерная особенность предикатов расщепления: каждая запись использует уникальный путь от корня дерева только к одному узлу-решению. Объединенная информация об атрибутах расщепления и предикатах расщепления в узле называется критерием расщепления (splitting criterion) [33].

На рис. 9.2. изображено одно из возможных деревьев решений для рассматриваемой базы данных. Например, критерий расщепления "Какое образование?", мог бы иметь два предиката расщепления и выглядеть иначе: образование "высшее" и "не высшее". Тогда дерево решений имело бы другой вид.

Таким образом, для данной задачи (как и для любой другой) может быть построено множество деревьев решений различного качества, с различной прогнозирующей точностью.

Качество построенного дерева решения весьма зависит от правильного выбора критерия расщепления. Над разработкой и усовершенствованием критериев работают многие исследователи.

Метод деревьев решений часто называют "наивным" подходом [34]. Но благодаря целому ряду преимуществ, данный метод является одним из наиболее популярных для решения задач классификации.

как строить дерево текущей реальности для решения бизнес-проблем — Карьера на vc.ru

Вы владелец бизнеса или управленец. И у вас на каком-то проекте или управленческом контуре творится неведомая херня: конфликт между сотрудниками, проблемы с клиентом и его проектом, нарушенные договоренности или всё это вместе.

Можно, конечно, просто вызвать подчинённых на ковёр и наорать, но это не решит проблему. А можно — взять и разобраться. Долго, нудно, подчас — неприятно и больно.

И кусочек за кусочком, восстанавливая картину и все причинно-следственные связи, построить дерево текущей реальности — диаграмму, которая нравится прошаренным управленцам за её наглядность и результативность.

В этом материале мы пошагово покажем на реальном примере, как это сделать.

Задачка со звёздочкой

Можно долго писать про деревья текущей реальности и теорию ограничений систем теоретически (если что, мы подробно рассказали об этом вот тут), но куда круче разобрать на реальном примере.

Дано: проект со сложной интеграцией — 1 штука. Менеджер проекта — 1. Разработчик, занимающийся интеграцией, — 1.

Ситуация: спринт прервался.

Задача: найти истинные причины ситуации и предложить решение проблемы.

Чтобы решить проблему, надо сначала отмотать назад и понять, почему она произошла. Поэтому добро пожаловать в кресло психолога начальника: предстоят разговоры «по душам».

Беседуем с менеджером и разработчиком. Задавая вопросы, «копаем» до истинных причин — как правило, людьми они не осознаются, приходится в этом им помогать. Будьте готовы к тому, что на вас вывалится поток формулировок, многие из которых могут быть токсичными.

Для поиска негативных явлений есть множество инструментов (5-WHY и прочие) — многие из них мы подробно рассматриваем на «Курсе управления проектами».

Раскручивая ситуацию с разных сторон, выясняем следующее:

Статья: ИСПОЛЬЗОВАНИЕ ТЕХНОЛОГИИ «ДЕРЕВО РЕШЕНИЙ» В ФОРМИРОВАНИИ У ДЕТЕЙ ДОШКОЛЬНОГО ВОЗРАСТА УМЕНИЯ ПЛАНИРОВАТЬ, ДЕЛАТЬ ВЫБОР И ПРИНИМАТЬ РЕШЕНИЯ

ИСПОЛЬЗОВАНИЕ ТЕХНОЛОГИИ «ДЕРЕВО РЕШЕНИЙ»

В ФОРМИРОВАНИИ У ДЕТЕЙ ДОШКОЛЬНОГО ВОЗРАСТА УМЕНИЯ ПЛАНИРОВАТЬ, ДЕЛАТЬ ВЫБОР И ПРИНИМАТЬ РЕШЕНИЯ

Веревочкина Алена Михайловна, воспитатель

МБДОУ детский сад №350 «Яблонька», г.Самара

Е-mail: [email protected]

Быстро сменяющийся ритм жизни,  требует от человека не шаблонных,   привычных действий, а гибкости мышления, быстрой ориентации и адаптации к новым условиям, творческого подхода к решению больших и малых проблем. Ведь все культурные ценности, накопленные человечеством – результат творческой деятельности людей. И то, насколько продвинется вперед человеческое общество в будущем, будет определяться творческим потенциалом подрастающего поколения. Инновационный процесс на нынешнем этапе развития общества касается в первую очередь системы дошкольного образования, которая считается начальной ступенью в раскрытии потенциальных возможностей ребенка. Этот подход ставит высокие требования к системе дошкольного обучения и воспитания. Происходит поиск более эффективных технологий в дошкольном образовании,  использовании современных, уже отработанных технологий, а также психолого-педагогических подходов к данному процессу.

В современных условиях ребёнок выступает в роли не “объекта”, а в роли “субъекта” образования, ребёнок – самоценная личность. 

Задача педагога видеть  индивидуальность каждого ребенка, научить его делать выбор,  развивать творческие способности. Для  этого, в своей работе педагоги используют,  современные образовательные технологии, сегодня их насчитывается больше сотни. Они классифицируются по организационным формам, по предметам, авторские, по подходам к ребёнку: социо - игровые,  кейс-технологии,  музейная педагогик, проектирование,  мнемотехника. 

Одной из таких современных образовательных технологий является   «Дерево – решений». Теория принятия решения как самостоятельное научное направление берет свое начало с работ американских ученых Дж. фон Неймана и О. Моргенштерна. Эти авторы издали в 1944 году небольшую книгу, посвященную разработанной ими теории игр и теории полезности, предложив тем самым первые формализованные модели действия человека в процессе принятия решений.

Дети постоянно задают вопросы, которые требуют принятия решения, но чаще всего педагог принимает решение за детей. Он должен научить ребенка  принимать решения самостоятельно.

В этом  ему поможет технология «Дерево решений». 

«Дерево решений» — технология, которая включает несколько этапов работы:

1. Выбора проблемы, не имеющей однозначного решения, например, «Что нужно дереву для счастья?».

2. Рассматривание схемы, в которой прямоугольник — это «ствол» (который обозначает эту проблему), прямые линии — «ветки» (пути ее решения), а кружочки — «листочки» (решение проблемы).

3. Решение проблемы: дети подгруппами договариваются, обсуждают и рисуют, например, бабочку, птичку и тому подобное, размещая их на «дереве решений» и объясняют свой выбор.

Суть технологии заключается в структуре дерева, в котором:

Ствол – проблема, которая требует решения;

Ветви – это пути решения проблемы;

Листья – это результаты, к которым приведут пути.

У одной проблемы может быть несколько путей решения и несколько результатов.

Преимущества этой технологии:

Данную технологию можно применять в различных видах деятельности: во время занятий и в  режимных моментах.

Утром с детьми  можно запланировать деятельность, которой будем заниматься в течение дня. Предложить выбрать игры, книги которые будем рассматривать и слушать, материалы для лепки, рисования, аппликации.

В непосредственной образовательной деятельности можно рассмотреть проблему, подобрать  разные пути решения, и получить результат.

Для организации прогулки технология «Дерево решений» помогает планировать,  сделать выбор вида деятельности, которым хотел бы заняться ребенок.

В вечернее время, дети играют в игры, рассматривают книги, занимаются продуктивной деятельностью, которая была запланирована ими ранее. Если ребенок не захотел играть в игру, которую выбрал утром, то выбирает любую другую.

В результате применения данной технологии развивается самостоятельность, ребенок учится видеть и определять проблему, учится выбирать и находить пути решения проблемы. Сопоставляет результат с проблемой. Она позволяет  учить детей планировать, делать выбор, принимать решение. Помогает развивать творческие способности детей.

Дети живут в быстро меняющемся в мире.  Педагог должен организовать свою работу так, чтобы каждый ребенок мог легко адаптироваться к жизни в современном обществе. Познавая красоту мира, ребенок стремится воплотить ее в своем творчестве, сделать существующий мир чуточку лучше, ярче.

Литература: 

1. Мясоед Т.А. «Интерактивные технологии обучения. Спец. семинар    для учителей» М., 2004

2. Суворова Н. «Интерактивное обучение: Новые подходы» М., 2005. 

3. Эддоус М, Стэнсфилд Р. Методы принятия решений. – М., ЮНИТИ, 1

4. https://podrastu.ru/doshkolnoe-obuchenie/interaktivnye-metody-obuchenija.html

Дерево решений для принятия решений

Руководство компании, которую я назову Stygian Chemical Industries, Ltd., должно решить, строить ли маленький завод или большой для производства нового продукта с ожидаемым сроком службы в десять лет. Решение зависит от размера рынка продукта.

Возможно, спрос будет высоким в течение первых двух лет, но, если многие начальные пользователи сочтут продукт неудовлетворительным, впоследствии упадет до низкого уровня.Или высокий начальный спрос может указывать на возможность устойчивого развития большого объема рынка. Если спрос будет высоким и в течение первых двух лет компания не расширится, обязательно появятся конкурентоспособные продукты.

Если компания строит большой завод, она должна жить с этим независимо от размера рыночного спроса. Если он строит небольшой завод, у руководства есть возможность расширить завод через два года в случае, если спрос будет высоким во время вводного периода; в то время как в случае низкого спроса во время вводного периода компания продолжит работу на небольшом заводе и получит неплохую прибыль на небольших объемах.

Руководство не знает, что делать. Компания быстро росла в 1950-е годы; она шла в ногу с химической промышленностью в целом. Новый продукт, если рынок окажется большим, дает нынешнему руководству шанс подтолкнуть компанию к новому периоду прибыльного роста. Отдел разработки, в частности инженер проекта разработки, настаивает на строительстве крупномасштабного завода, чтобы использовать первую крупную разработку продукта, произведенную отделом за несколько лет.

Председатель совета директоров, основной акционер, опасается возможности увеличения ненужных производственных мощностей. Он выступает за меньшее предприятие, но признает, что дальнейшее расширение для удовлетворения большого спроса потребует больших инвестиций и будет менее эффективным в эксплуатации. Председатель также признает, что, если компания не предпримет срочных мер для удовлетворения возникающего спроса, у конкурентов появится соблазн перейти на эквивалентные продукты.

Проблема Stygian Chemical, даже слишком упрощенная, иллюстрирует неопределенности и проблемы, которые руководство бизнеса должно решать при принятии инвестиционных решений.(Я использую термин «инвестиции» в широком смысле, имея в виду затраты не только на новые заводы и оборудование, но и на крупные и рискованные заказы, специальные маркетинговые объекты, исследовательские программы и другие цели.) Эти решения становятся все более важными в в то же время, когда они усложняются. Бесчисленное количество руководителей хотят сделать их лучше, но как?

В этой статье я представлю недавно разработанную концепцию под названием «дерево решений», которая имеет огромный потенциал в качестве инструмента принятия решений.Дерево решений, как никакой другой известный мне аналитический инструмент, может прояснить для руководства выбор, риски, цели, денежную прибыль и информационные потребности, связанные с инвестиционной проблемой. В предстоящие годы мы будем много слышать о деревьях решений. Хотя сегодня это новинка для большинства бизнесменов, они наверняка станут в обычном менеджменте еще до того, как пройдет много лет.

Позже в этой статье мы вернемся к проблеме, с которой сталкивается компания Stygian Chemical, и посмотрим, как руководство может приступить к ее решению, используя деревья решений.Однако сначала на более простом примере проиллюстрируем некоторые характеристики подхода на основе дерева решений.

Отображение альтернатив

Предположим, что это довольно пасмурное субботнее утро, а днем ​​к вам на коктейли приходят 75 человек. У вас красивый сад и небольшой дом; поэтому, если позволяет погода, вы бы хотели приготовить закуски в саду и устроить там вечеринку. Так было бы приятнее, и вашим гостям было бы комфортнее.С другой стороны, если вы устроите вечеринку в саду, и после того, как все гости будут собраны, начнется дождь, закуски испортятся, ваши гости промокнут, и вы от всей души пожалеете, что решили устроить вечеринку. в доме. (Мы могли бы усложнить эту проблему, рассмотрев возможность частичной приверженности тому или иному курсу и возможности корректировать оценки погоды в течение дня, но простая проблема - это все, что нам нужно.)

Это конкретное решение можно представить в виде таблицы «выплат»:

Гораздо более сложные вопросы решения могут быть представлены в виде таблицы выплат.Однако, особенно для сложных инвестиционных решений, другое представление информации, относящейся к проблеме, - дерево решений - полезно, чтобы показать пути, по которым достигаются различные возможные результаты. Пьер Массе, генеральный комиссар Национального агентства по вопросам производительности и планирования оборудования во Франции, отмечает:

«Проблема решения не ставится ни в терминах изолированного решения (потому что сегодняшнее решение зависит от того, которое мы примем завтра), ни в терминах последовательности решений (потому что в условиях неопределенности на решения, принятые в будущем, будут влиять что мы узнали за это время).Проблема сформулирована в виде дерева решений ». 1

Приложение I иллюстрирует дерево решений для проблемы коктейльной вечеринки. Это дерево представляет собой другой способ отображения той же информации, что и в таблице выплат. Однако, как покажут последующие примеры, в сложных решениях дерево решений часто является гораздо более понятным средством представления соответствующей информации, чем таблица выплат.

Приложение I. Схема принятия решений для коктейльной вечеринки

Дерево состоит из ряда узлов и ветвей.В первом узле слева хост может выбрать, будет ли вечеринка внутри или снаружи. Каждая ветвь представляет собой альтернативный образ действий или решение. В конце каждой ветви или альтернативного маршрута есть еще один узел, представляющий случайное событие - будет ли дождь или нет. Каждый последующий альтернативный курс вправо представляет собой альтернативный исход этого случайного события. С каждым полным альтернативным курсом в дереве связан выигрыш, показанный в конце крайней правой или конечной ветви курса.

Когда я рисую деревья решений, мне нравится указывать вилки действия или решения квадратными узлами, а вилки случайных событий - круглыми. Вместо этого можно использовать другие символы, такие как однострочные и двухстрочные ответвления, специальные буквы или цвета. Не имеет большого значения, какой метод различения вы используете, если вы используете тот или иной. Дерево решений любого размера всегда будет сочетать (а) действие , выбор с (б) различные возможные события , или , результаты действия , на которые частично влияет случай или другие неконтролируемые обстоятельства.

Цепочки принятия решений

Предыдущий пример, хотя и включает только один этап принятия решения, иллюстрирует элементарные принципы, на которых строятся более крупные и сложные деревья решений. Возьмем чуть более сложную ситуацию:

Вы пытаетесь решить, следует ли утверждать бюджет разработки улучшенного продукта. Вам настоятельно рекомендуется сделать это на том основании, что разработка, в случае успеха, даст вам конкурентное преимущество, но если вы не разработаете продукт, ваш конкурент может - и может серьезно повредить вашей доле на рынке.Вы набрасываете дерево решений, которое выглядит примерно так, как показано на Приложении II.

Приложение II. Дерево решений с цепочками действий и событий

Ваше первоначальное решение показано слева. После принятия решения о продолжении проекта, если разработка будет успешной, это второй этап принятия решения в пункте A. Если не произойдет никаких серьезных изменений в ситуации с настоящего момента до момента достижения пункта A, вы решаете сейчас, какие альтернативы будут важны для вас. в это время.Справа от дерева представлены результаты различных последовательностей решений и событий. Эти результаты также основаны на вашей текущей информации. Фактически вы говорите: «Если то, что я знаю сейчас, правда, то вот что произойдет».

Конечно, вы не пытаетесь определить все события, которые могут произойти, или все решения, которые вам придется принять по исследуемой теме. В дереве решений вы размещаете только те решения и события или результаты, которые важны для вас и имеют последствия, которые вы хотите сравнить.(Дополнительные иллюстрации см. В Приложении.)

Добавление финансовых данных

Теперь мы можем вернуться к проблемам, с которыми столкнулось руководство компании Stygian Chemical. Дерево решений, характеризующее инвестиционную проблему, описанную во введении, показано на Приложении III. В решении №1 компания должна выбрать между большим и малым заводом. Это все, что нужно решить , теперь . Но если компания решит построить небольшой завод, а затем обнаружит высокий спрос в начальный период, она может через два года - в соответствии с Решением № 2 - принять решение о расширении своего завода.

Приложение III. Решения и события для Stygian Chemical Industries, Ltd.

Но давайте выйдем за рамки простого наброска альтернатив. Принимая решения, руководители должны учитывать вероятности, затраты и прибыль, которые кажутся вероятными. На основе имеющихся в настоящее время данных и при условии, что ситуация в компании не изменится, они рассуждают следующим образом:

1. Крупный завод с большими объемами производства будет приносить денежный поток в размере 1 000 000 долларов в год.

2. Большой завод с малым объемом производства принесет всего 100 000 долларов из-за высоких постоянных затрат и неэффективности.

3. Небольшой завод с низким спросом будет экономичным и принесет годовой денежный доход в размере 400 000 долларов.

4. Небольшой завод в начальный период высокого спроса будет давать 450 000 долларов в год, но в долгосрочной перспективе этот показатель упадет до 300 000 долларов в год из-за конкуренции.(Рынок будет больше, чем при альтернативе 3, но будет разделен между большим количеством конкурентов.)

5. Если небольшой завод будет расширен для удовлетворения устойчивого высокого спроса, он будет приносить денежный поток в размере 700 000 долларов в год, а значит, будет менее эффективным, чем изначально построенный большой завод.

6. Если небольшой завод был расширен, но высокий спрос не поддерживался, расчетный годовой денежный поток составил бы 50 000 долларов.

Когда вышеупомянутые данные включены, у нас есть дерево решений, показанное в Приложении IV. Имейте в виду, что здесь не показано ничего, о чем руководители Stygian Chemical не знали раньше; никаких цифр из шляп не вытащили. Тем не менее, мы начинаем видеть убедительные доказательства ценности деревьев решений в , излагающих то, что знает руководство, таким образом, чтобы сделать возможным более систематический анализ и привести к лучшим решениям.Обобщая требования к созданию дерева решений, руководство должно:

1. Определите точки принятия решения и альтернативы, доступные в каждой точке.

2. Определите точки неопределенности и тип или диапазон альтернативных результатов в каждой точке.

3. Оцените значения, необходимые для проведения анализа, особенно вероятности различных событий или результатов действий, а также затраты и выгоды от различных событий и действий.

4. Проанализируйте альтернативные значения, чтобы выбрать курс.

Приложение IV. Дерево решений с финансовыми данными

Выбор курса действий

Теперь мы готовы к следующему этапу анализа - сравнению последствий различных действий. Дерево решений не дает руководству ответа на инвестиционную проблему; скорее, он помогает руководству определить, какая альтернатива в любой конкретной точке выбора принесет наибольшую ожидаемую денежную выгоду с учетом информации и альтернатив, относящихся к решению.

Конечно, прибыль нужно рассматривать вместе с рисками. В Stygian Chemical, как и во многих корпорациях, менеджеры имеют разные точки зрения на риск; следовательно, они сделают разные выводы в обстоятельствах, описанных в дереве решений, показанном в Приложении IV. Многие люди, участвующие в принятии решения - те, кто предоставляет капитал, идеи, данные или решения и имеют разные ценности, подверженные риску, - по-разному увидят неопределенность, окружающую решение. Если эти различия не будут признаны и устранены, те, кто должен принять решение, заплатить за него, предоставить ему данные и проанализировать его, и жить с ним, будут судить о проблеме, релевантности данных, необходимости анализа и критерии успеха в различных и противоречивые пути.

Например, акционеры компании могут рассматривать конкретную инвестицию как одну из ряда возможностей, некоторые из которых сработают, другие - нет. Крупные инвестиции могут представлять опасность для менеджера среднего звена - для его работы и карьеры - независимо от того, какое решение будет принято. Другой участник может многое выиграть от успеха, но мало потерять от провала проекта. Характер риска - как его видит каждый человек - будет влиять не только на предположения, которые он готов сделать, но и на стратегию, которой он будет следовать в борьбе с риском.

Наличие множества неустановленных и противоречащих друг другу целей, безусловно, внесет свой вклад в «политику» решения Stygian Chemical, и можно быть уверенным, что политический элемент присутствует всякий раз, когда затрагиваются жизни и амбиции людей. Здесь, как и в аналогичных случаях, неплохо было бы подумать, кто является сторонами инвестиционного решения, и попытаться сделать эти оценки:

Соображения, подобные вышеизложенному, несомненно, войдут в мышление высшего руководства, и дерево решений в Приложении IV не устранит их.Но дерево покажет руководству, какое решение сегодня будет больше всего способствовать его долгосрочным целям. Инструмент для этого следующего шага анализа - концепция «отката».

Концепт «Откат»

Вот как работает откат в описанной ситуации. Во время принятия Решения №1 (см. Приложение IV), руководство не обязано принимать Решение №2 и даже не знает, будет ли у него возможность это сделать. Но если бы были , чтобы иметь возможность в Решении № 2, компания расширила бы завод с учетом своих текущих знаний.Анализ показан в Приложении V. (на данный момент я проигнорирую вопрос дисконтирования будущей прибыли; он будет представлен позже). Мы видим, что общая ожидаемая стоимость альтернативы расширения на 160 000 долларов больше, чем альтернатива без расширения, сверх оставшаяся восьмилетняя жизнь. Следовательно, это альтернативный вариант, который руководство выбрало бы, если бы столкнулось с Решением № 2 с имеющейся информацией (и думая только о денежной прибыли в качестве стандарта выбора).

Приложение V. Анализ возможного решения № 2 (с использованием максимального ожидаемого общего денежного потока в качестве критерия)

Читатели могут задаться вопросом, почему мы начали с Решения №2, когда сегодняшняя проблема - Решение №1.Причина заключается в следующем: мы должны иметь возможность оценить Решение № 2 в денежном выражении, чтобы «откатиться» к Решению № 1 и сравнить выигрыш от перехода на нижнюю ветвь («Строительство небольшого завода») с выигрышем. от взятия верхней ветви («Построй большой завод»). Назовем это денежное выражение для Решения №2 его значением позиции . Значение позиции решения - это ожидаемая стоимость предпочтительной ветви (в данном случае вилки расширения предприятия). Ожидаемое значение - это просто своего рода среднее значение результатов, которых вы ожидали бы, если бы вы повторяли ситуацию снова и снова, - получение доходности 5600 тысяч долларов в 86% случаев и 400 тысяч долларов в 14% случаев.

Другими словами, Stygian Chemical стоит 2 672 тысячи долларов, чтобы добраться до позиции, на которой она сможет принять Решение № 2. Возникает вопрос: с учетом этого значения и других данных, показанных в Приложении IV, что теперь кажется лучшим действием в Решении №1?

Обратитесь к приложению VI. Справа от ветвей в верхней половине мы видим урожайность для различных событий, если будет построен большой завод (это просто числа в Приложении IV, умноженные). В нижней половине мы видим цифры по малым предприятиям, включая значение позиции в Решении № 2 плюс урожай за два года до Решения № 2.Если уменьшить все эти урожаи на их вероятности, мы получим следующее сравнение:

Построить большой завод: (10 × 0,60) + (2,8 × 0,10) + (1 × 0,30) - 3 доллара = 3600 тысяч долларов

Построить малый завод: (3,6 доллара × 0,70) + (4 доллара × 0,30) - 1,3 доллара = 2400 тысяч долларов

Приложение VI. Анализ движения денежных средств для решения № 1

Следовательно, выбор, который максимизирует ожидаемую общую денежную доходность согласно Решению № 1, - это сначала построить большой завод.

Учет времени

Как насчет того, чтобы учесть разницу во времени и будущих доходов? Время между последовательными этапами принятия решения на дереве решений может быть значительным.На любом этапе нам, возможно, придется взвесить разницу в непосредственных затратах или доходах с разницей в стоимости на следующем этапе. Какой бы стандарт выбора ни применялся, мы можем сопоставить эти две альтернативы, если дисконтируем значение, присвоенное следующему этапу, на соответствующий процент. Процент дисконтирования, по сути, является поправкой на стоимость капитала и аналогичен использованию ставки дисконтирования в приведенной стоимости или методам дисконтирования денежных потоков, уже хорошо известных бизнесменам.

Когда используются деревья решений, процедура дисконтирования может применяться поэтапно. Дисконтируются как денежные потоки, так и стоимость позиций.

Для простоты предположим, что ставка дисконтирования 10% в год для всех стадий определяется руководством Stygian Chemical. Применяя принцип отката, мы снова начинаем с Решения №2. Взяв те же цифры, что и в предыдущих экспонатах, и дисконтируя денежные потоки на 10%, мы получаем данные, показанные в Части А Приложения VII.Обратите внимание, что это текущая стоимость на момент принятия Решения № 2 .

Приложение VII. Анализ Решения № 2 с Дисконтированием Примечание: Для простоты денежный поток за первый год не дисконтируется, денежный поток за второй год дисконтируется через один год и так далее.

Теперь мы хотим пройти ту же процедуру, что и в Приложении V, когда мы получили ожидаемые значения, только на этот раз с использованием значений дисконтированной доходности и получения дисконтированного ожидаемого значения.Результаты показаны в Части B Приложения VII. Поскольку дисконтированная ожидаемая стоимость альтернативы без расширения выше, , эта цифра становится на этот раз значением позиции Решения №2.

Сделав это, мы снова возвращаемся к работе над Решением №1, повторяя ту же аналитическую процедуру, что и раньше, только с дисконтированием. Расчеты показаны в Приложении VIII. Обратите внимание, что значение позиции в Решении № 2 обрабатывается во время Решения № 1, как если бы это была единовременная сумма, полученная в конце двух лет.

Приложение VIII. Анализ Решения № 1

Альтернатива крупного предприятия снова является предпочтительной на основе дисконтированного ожидаемого денежного потока. Но разница по сравнению с вариантом для небольших предприятий (290 тыс. Долл. США) меньше, чем без дисконтирования.

Альтернативы неопределенности

Проиллюстрировав концепцию дерева решений, я рассматривал альтернативы неопределенности, как если бы они были дискретными, четко определенными возможностями. В своих примерах я использовал неопределенные ситуации, зависящие в основном от одной переменной, такой как уровень спроса, успех или неудача проекта разработки.Я стремился избежать ненужных сложностей, делая упор на ключевых взаимосвязях между настоящим решением, будущими выборами и промежуточными неопределенностями.

Во многих случаях неопределенные элементы действительно принимают форму дискретных альтернатив с одной переменной. В других случаях, однако, возможности для движения денежных средств на этапе могут варьироваться по всему спектру и могут зависеть от ряда независимых или частично связанных переменных, подверженных случайным влияниям - стоимости, спроса, доходности, экономического климата и т. Д.В этих случаях мы обнаружили, что диапазон изменчивости или вероятность того, что денежный поток попадет в заданный диапазон на этапе, может быть легко рассчитан на основе знания ключевых переменных и связанных с ними неопределенностей. Затем диапазон возможных денежных потоков на этапе можно разбить на две, три или более «подмножества», которые можно использовать как дискретные случайные альтернативы.

Заключение

Питер Ф. Друкер лаконично выразил связь между текущим планированием и будущими событиями: «Долгосрочное планирование не имеет отношения к будущим решениям.Он касается будущего нынешних решений ». 2 Сегодняшнее решение должно быть принято с учетом ожидаемого эффекта, а исход неопределенных событий окажет влияние на будущие ценности и решения. Поскольку сегодняшнее решение закладывает основу для завтрашнего решения, сегодняшнее решение должно уравновешивать экономию с гибкостью; он должен уравновешивать необходимость использования возможностей получения прибыли, которые могут существовать, со способностью реагировать на будущие обстоятельства и потребности.

Уникальная особенность дерева решений состоит в том, что оно позволяет руководству комбинировать аналитические методы, такие как методы дисконтированного денежного потока и приведенной стоимости, с четким изображением влияния будущих альтернатив решений и событий.Используя дерево решений, руководство может с большей легкостью и ясностью рассмотреть различные варианты действий. Взаимодействие между существующими альтернативами решений, неопределенными событиями и будущими выборами и их результатами становится более заметным.

Конечно, есть много практических аспектов деревьев решений в дополнение к тем, которые можно было бы осветить в рамках одной статьи. Когда эти другие аспекты будут обсуждаться в последующих статьях, 3 весь диапазон возможных выгод для менеджмента будет рассмотрен более подробно.

Несомненно, концепция дерева решений не дает окончательных ответов руководству, принимающему инвестиционные решения в условиях неопределенности. Мы не достигли этой стадии и, возможно, никогда не достигнем. Тем не менее, эта концепция ценна для иллюстрации структуры инвестиционных решений, и она также может предоставить отличную помощь при оценке возможностей капиталовложений .

1. Оптимальные инвестиционные решения: правила действий и критерии выбора (Энглвуд Клиффс, Нью-Джерси, Prentice-Hall, Inc., 1962), стр. 250.

2. «Долгосрочное планирование», Management Science, , апрель 1959 г., стр. 239.

3. Мы ожидаем еще одной статьи мистера Маги в следующем номере. - The Editors

Версия этой статьи появилась в июльском выпуске журнала Harvard Business Review за 1964 год. .

Как составить древовидную диаграмму решений

Давайте воспользуемся Lucidchart, чтобы составить дерево решений для запуска продукта, и решим, имеет ли смысл сначала инвестировать в рыночное тестирование. На диаграмме дерева принятия решений всего несколько символов (круг, квадрат, линия и треугольник), поэтому мы создадим один с нуля. Войдите в свою учетную запись (если у вас ее нет, зарегистрируйтесь, чтобы попробовать Lucidchart бесплатно в течение недели) и выполните следующие действия.

1. Откройте пустой документ

В разделе «Документы» нажмите оранжевую кнопку + «Документ» и дважды щелкните.

Совет: Вы также можете щелкнуть оранжевую стрелку вниз и выбрать пустой шаблон диаграммы. Если вы выбрали эту опцию, переходите к шагу 3.

2. Настройте параметры страницы

Когда вы открываете пустой документ, вместо шаблона вы можете изменить настройки страницы, поля, направляющие, сетки, линии, линейки. Справа вы увидите меню настроек страницы, в котором вы можете внести любые изменения. Просто выберите нужные параметры, а после завершения щелкните стрелки рядом с параметрами страницы, чтобы скрыть меню.Поскольку деревья решений могут становиться большими, мы собираемся изменить формат страницы на альбомный.

3. Назовите диаграмму дерева решений

Щелкните заголовок «Пустая диаграмма» в верхней части экрана и введите имя файла.

Примечание: Если вы выбрали шаблон, откроется всплывающий экран, введите имя диаграммы в текстовое поле и нажмите OK. Новое имя появится в верхнем левом углу экрана.

4. Начните рисовать дерево решений

Щелкните и удерживайте прямоугольник под фигурами и перетащите его в крайнюю левую часть документа.Деревья решений отображаются слева направо, поэтому разместите их как можно ближе к краю. Используйте сетку и линейку, чтобы выровнять прямоугольник в нужном месте. Введите решение в прямоугольник.

Совет: Используйте параметры форматирования текста в верхней части диаграммы, чтобы изменить шрифты, цвета, интервал и т. Д.

5. Добавьте узлы

Щелкните и перетащите кружок на диаграмму, чтобы добавить неопределенные узлы. Используйте сетки, чтобы выровнять круги на странице. Чтобы изменить размер круга, нажмите на него, нажмите на синий квадрат и перетащите его, чтобы изменить размер.Введите название неопределенного исхода в кружок.

Вы можете добавить столько возможностей, сколько захотите, но при запуске дерева решений вам понадобится как минимум две опции. Продолжайте добавлять узлы в дерево решений, пока не достигнете конечного результата для каждого варианта.

Совет: Если вы не хотите изменять размер каждого узла (круга), просто щелкните существующий круг и нажмите и удерживайте Command + C на клавиатуре. Затем нажмите и удерживайте Ctrl + V, появится повторяющийся круг, перетащите его на место.

6. Добавьте ветви к дереву решений

Чтобы провести линии между узлами, щелкните фигуру, щелкните и удерживайте один из оранжевых кружков и перетащите линию к следующему узлу. Между двумя объектами автоматически рисуется стрелка.

Подсказка: Чтобы убрать стрелку с линии, выберите «Нет подсказки» в параметре Конечная точка для строк в верхней строке меню.

Когда вы дойдете до конца ветки, где другие решения на этом маршруте не требуются, добавьте треугольник в конец этой строки.

7. Добавьте вероятности и значения в дерево решений

Пришло время оценить дерево решений, чтобы вы могли оценить, сколько оно будет стоить, если произойдет определенный результат. Посмотрите на кружки и добавьте оценки вероятности каждого исхода. Чтобы добавить числа на диаграмму, щелкните большую букву T в стандартных параметрах и перетащите ее в то место, где вы хотите добавить оценку.

Примечание. Процентное значение для каждого узла должно равняться 100, если вы используете дроби, каждый узел должен составлять в сумме 1.Не стесняйтесь использовать существующие данные, если они у вас есть.

Затем добавьте стоимость каждого варианта по ветви (линия решения).

8. Вычислите значение каждого решения

Начните с правой стороны дерева и двигайтесь влево. Вычтите стоимость каждого решения из ожидаемых выгод.

После завершения расчетов вы четко увидите, какой вариант принесет вам наибольшее вознаграждение.

9. Добавьте цвета в дерево решений

После того, как вы закончили базовый дизайн вашего дерева решений, вы можете добавить цвета, щелкнув символ, а затем щелкнув значок заливки цветом в строке меню и выбрав цвет.

10. Поделитесь своей диаграммой дерева решений

Если вам нравится, как выглядит дерево решений, вы можете поделиться им с другими по электронной почте, по ссылке, в социальных сетях (Facebook, Twitter, Google+ и LinkedIn) или встроить в сайт. Нажмите синюю кнопку «Поделиться» в правом верхнем углу экрана, и появится всплывающее окно. Выберите, как вы хотите поделиться схемой, и введите соответствующую информацию.

Когда вы добавляете соавтора, отправляя ссылку на дерево решений по электронной почте, вы можете одновременно работать над диаграммой и использовать функцию чата для обсуждения.

.

1.10. Деревья принятия решений - документация scikit-learn 0.23.2

Деревья решений (DT) - это непараметрический метод обучения с учителем. для классификации и регрессии. Цель состоит в том, чтобы создать модель, которая предсказывает ценность целевая переменная путем изучения простых правил принятия решений, выведенных из данных функции.

Например, в приведенном ниже примере деревья решений учатся на основе данных аппроксимировать синусоидальную кривую с набором правил принятия решения «если-то-иначе».Чем глубже чем выше дерево, тем сложнее решающие правила и тем лучше модель.

Некоторые преимущества деревьев решений:

  • Просто для понимания и интерпретации. Деревья можно визуализировать.

  • Требуется небольшая подготовка данных. Другие методы часто требуют данных нормализации, необходимо создать фиктивные переменные и пустые значения для удалить. Однако обратите внимание, что этот модуль не поддерживает отсутствующие ценности.

  • Стоимость использования дерева (т.е., прогнозирование данных) является логарифмическим по количество точек данных, используемых для обучения дерева.

  • Может обрабатывать как числовые, так и категориальные данные. Другие техники обычно специализируются на анализе наборов данных только одного типа переменной. Смотрите алгоритмы для получения дополнительной информации Информация.

  • Может обрабатывать проблемы с несколькими выходами.

  • Использует модель белого ящика. Если данная ситуация наблюдается в модели, объяснение условия легко объясняется булевой логикой.Напротив, в модели черного ящика (например, в искусственной нейронной сеть), результаты может быть труднее интерпретировать.

  • Можно проверить модель с помощью статистических тестов. Это делает это Можно учесть надежность модели.

  • Работает хорошо, даже если его предположения несколько нарушаются истинная модель, из которой были созданы данные.

К недостаткам деревьев решений можно отнести:

  • Обучающиеся дерева решений могут создавать слишком сложные деревья, которые не хорошо обобщить данные.Это называется переобучением. Механизмы например, обрезка, установка минимального количества требуемых образцов на листовом узле или установка максимальной глубины дерева необходимо, чтобы избежать этой проблемы.

  • Деревья решений могут быть нестабильными из-за небольших вариаций в данные могут привести к созданию совершенно другого дерева. Эта проблема смягчается за счет использования деревьев решений в ансамбль.

  • Известно, что задача изучения дерева оптимальных решений NP-полная по нескольким аспектам оптимальности и даже для простых концепции.Следовательно, практические алгоритмы обучения дереву решений основаны на эвристических алгоритмах, таких как жадный алгоритм, где локально оптимальные решения принимаются на каждом узле. Такие алгоритмы не может гарантировать возврат глобально оптимального дерева решений. Этот можно смягчить путем обучения нескольких деревьев в ученике ансамбля, где функции и образцы выбираются случайным образом с заменой.

  • Есть концепции, которые трудно изучить, потому что деревья решений не выражают их легко, например, проблемы XOR, четности или мультиплексора.

  • Обучающиеся дерева решений создают предвзятые деревья, если некоторые классы доминируют. Поэтому рекомендуется сбалансировать набор данных перед подгонкой. с деревом решений.

1.10.1. Классификация

DecisionTreeClassifier - это класс, способный выполнять мультиклассы классификация по набору данных.

Как и другие классификаторы, DecisionTreeClassifier принимает на вход два массива: массив X, разреженный или плотный, размером [n_samples, n_features] , содержащий обучающие выборки и массив Y целых значений размером [n_samples] , с метками классов для обучающих выборок:

 >>> из дерева импорта sklearn >>> X = [[0, 0], [1, 1]] >>> Y = [0, 1] >>> clf = дерево.DecisionTreeClassifier () >>> clf = clf.fit (X, Y) 

После установки модель может быть использована для прогнозирования класса образцов:

 >>> clf.predict ([[2., 2.]]) массив ([1]) 

В качестве альтернативы можно предсказать вероятность каждого класса, которая является доля обучающих выборок одного класса в листе:

 >>> clf.predict_proba ([[2., 2.]]) массив ([[0., 1.]]) 

DecisionTreeClassifier поддерживает как двоичные (где метки - это [-1, 1]) классификация и мультикласс (где метки [0,…, K-1]) классификация.

Используя набор данных Iris, мы можем построить дерево следующим образом:

 >>> from sklearn.datasets import load_iris >>> из дерева импорта sklearn >>> X, y = load_iris (return_X_y = True) >>> clf = tree.DecisionTreeClassifier () >>> clf = clf.fit (X, y) 

После обучения вы можете построить дерево с помощью функции plot_tree :

.

Как визуализировать дерево решений из случайного леса в Python с помощью Scikit-Learn | by Will Koehrsen

  1. Создайте поезд модели и извлеките: мы могли бы использовать одно дерево решений, но поскольку я часто использую случайный лес для моделирования, он используется в этом примере. (Деревья будут немного отличаться друг от друга!).
 из sklearn.ensemble import RandomForestClassifier 
model = RandomForestClassifier (n_estimators = 10) # Train
model.fit (iris.data, iris.target)
# Извлечь отдельное дерево
Estimator = model.estimators_ [5]

2. Экспорт дерева как .dot файл: Это использует функцию export_graphviz в Scikit -Учиться. Здесь есть много параметров, которые управляют внешним видом и отображаемой информацией. Взгляните на документацию для уточнения деталей.

 из sklearn.tree import export_graphviz # Экспортировать как точечный файл 
export_graphviz (Estimator_limited,
out_file = 'tree.точка ',
feature_names = iris.feature_names,
class_names = iris.target_names,
Round = True, ratio = False,
precision = 2, fill = True)

3. Преобразовать dot в png с помощью системной команды : запуск системных команд на Python может быть удобен для выполнения простых задач. Для этого требуется установка graphviz, в которую входит утилита dot. Полный список вариантов преобразования можно найти в документации.

 # Преобразовать в png 
из вызова импорта подпроцесса
call (['точка', '-Tpng', 'tree.dot', '-o', 'tree.png', '-Gdpi = 600'])

4. Визуализируйте : лучшие визуализации появляются в Jupyter Notebook. (Точно так же вы можете использовать matplotlib для отображения изображений).

 # Отображение в jupyter notebook 
из IPython.display import Image
Image (filename = 'tree.png')

Замечания

При случайном лесу каждое дерево будет построено по-своему.Я использую эти изображения для отображения аргументов, лежащих в основе дерева решений (а затем и случайного леса), а не для конкретных деталей.

Если у вас много объектов, полезно ограничить максимальную глубину в деревьях. В противном случае вы получите массивные деревья, которые выглядят впечатляюще, но совершенно не могут быть интерпретированы! Вот полный пример с 50 функциями.

.

Смотрите также

Сайт о Бане - проект, посвященный строительству, эксплуатации и уходу за русской баней. Большой сборник статей, который может быть полезен любому любителю бани

Содержание, карта сайта.