Рубрики

ML | Почему логистическая регрессия в классификации?

Используя линейную регрессию, все прогнозы> = 0,5 можно рассматривать как 1, а все остальные <0,5 можно рассматривать как 0. Но тогда возникает вопрос, почему классификация не может быть выполнена с использованием этого?

Проблема —

Предположим, мы классифицируем почту как спам, а не как спам, и мы выводим y , это может быть 0 (спам) или 1 (не спам). В случае линейной регрессии h θ (x) может быть> 1 или <0. Хотя наш прогноз должен быть в диапазоне от 0 до 1, модель будет прогнозировать значение вне диапазона, то есть может быть> 1 или <0.

Вот почему для задачи классификации, логистическая / сигмовидная регрессия играет свою роль.

Здесь мы вставляем θ T x в логистическую функцию, где θ — это вес / параметры, а x — вход, а h θ (x) — функция гипотезы. g () — сигмовидная функция.

Это означает, что у = 1 вероятность, когда х параметризован в θ

Чтобы получить дискретные значения 0 или 1 для классификации, определяются дискретные границы. Функция гипотезы может быть переведена как

Граница принятия решения — это линия, которая различает область, где y = 0 и где y = 1. Эти границы решения вытекают из рассматриваемой гипотезы.

Понимание Границы Решения с примером —
Пусть наша функция гипотезы будет

Тогда граница решения выглядит так

Выпускаемые веса или параметры будут —

Таким образом, он предсказывает y = 1, если

И это уравнение круга с радиусом = 1 и источником в качестве центра. Это Граница Решения для нашей определенной гипотезы.

Рекомендуемые посты:

ML | Почему логистическая регрессия в классификации?

0.00 (0%) 0 votes