Рубрики

ML | Функция стоимости в логистической регрессии

В случае линейной регрессии функция стоимости —

Но для логистической регрессии,

Это приведет к невыпуклой функции стоимости. Но это приводит к функции стоимости с локальными оптимумами, что является очень большой проблемой для градиентного спуска для вычисления глобальной оптимумы.

Таким образом, для логистической регрессии функция стоимости

Если у = 1

Стоимость = 0, если y = 1, h θ (x) = 1
Но,
h θ (x) -> 0
Стоимость -> Бесконечность

Если у = 0

Так,

Чтобы соответствовать параметру θ , J (θ) должен быть минимизирован, и для этого требуется градиентный спуск.

Градиентный спуск — выглядит аналогично линейной регрессии, но разница заключается в гипотезе h θ (x)

Рекомендуемые посты:

ML | Функция стоимости в логистической регрессии

0.00 (0%) 0 votes