Випадкові ліси є комбінація предикторів дерев, що кожне дерево залежить від значень випадкового вектора, відібраного незалежно та з однаковим розподілом для всіх дерев у лісі. Помилка узагальнення для лісів сходиться а.с. до межі, оскільки кількість дерев у лісі стає великою.
RandomForest використовує так званий пакетний підхід. Ідея заснована на класичному компромісі зміщення-дисперсії. Припустімо, що ми маємо набір (скажімо, N) переналаштованих оцінювачів, які мають низьке зміщення, але високу дисперсію між вибірками. Отже, низьке зміщення – це добре, і ми хочемо його зберегти, висока дисперсія – це погано, і ми хочемо його зменшити.
Наступні кроки пояснюють робочий алгоритм випадкового лісу: Крок 1: Виберіть випадкові зразки з заданих даних або навчального набору. Крок 2. Цей алгоритм створить дерево рішень для кожного навчального даних. Крок 3: Голосування відбуватиметься шляхом усереднення дерева рішень.
Випадковий ліс — це широко використовуваний алгоритм машинного навчання під торговою маркою Лео Бреймана та Адель Катлер, який поєднує результати кількох дерев рішень для досягнення одного результату. Його простота використання та гнучкість сприяли його прийняттю, оскільки він обробляє як проблеми класифікації, так і регресії.
Що таке випадковий ліс? Випадковий ліс – це a контрольований алгоритм навчання. «Ліс», який він будує, являє собою ансамбль дерев рішень, зазвичай навчених методом пакетування. Загальна ідея методу bagging полягає в тому, що поєднання моделей навчання підвищує загальний результат.
Основна ідея випадкового лісу полягає в тому, щоб об’єднати багато дерев рішень в одну модель. Окремо прогнози, зроблені деревами рішень (або людьми), можуть бути неточними, але в сукупності прогнози в середньому будуть ближчими до позначки.