Вместо того чтобы оценивать модель по одному конкретному порогу, мы можем сделать это для целого ряда — точно так же, как мы делали это для достоверности ранее в текущей главе.
Для этого мы сначала перебираем различные пороговые значения и вычисляем значения матрицы ошибок для каждого из них
Мы используем оценку (score) для обозначения промежуточного результата перед применением сигмоидальной функции. Оценка может принимать любое реальное значение. Вероятность представляет собой результат применения сигмоидальной функции к оценке; это конечный результат, и он может принимать только значения от нуля до единицы.
Иногда, когда добавление нового признака приводит к снижению производительности, для решения проблемы бывает достаточно просто удалить этот признак. Наличие проверочного набора данных важно для принятия решения о том, следует ли добавить регуляризацию, удалить признак или сделать и то и другое: мы используем оценку на основе проверочных данных, чтобы выбрать наилучший вариант. В нашем конкретном случае мы видим, что добавление регуляризации нам помогает: этот шаг улучшает оценку, которую мы получали ранее.
Глубокому обучению и нейронным сетям в последнее время уделяется особое внимание, в основном благодаря прорыву в методах компьютерного зрения. Эти сети решают такие задачи, как классификация изображений, намного лучше, чем это делали более ранние методы. Глубокое обучение — подобласть машинного обучения, в которой функция g представляет собой нейронную сеть со многими слоями. Мы узнаем больше о нейронных сетях и глубоком обучении, начиная с главы 7, где обучаем модель глубокого обучения для классификации изображений.
Все древовидные модели могут решить проблему регрессии — спрогнозировать число. В Scikit-learn, DecisionTreeRegressor и RandomForestRegressor реализуют регрессионную вариацию моделей. В XGBoost нам потребуется изменить цель на reg:squarederror