Co je odchylka odchylky ve strojovém učení?



Tento článek se zabývá konceptem zkreslení a rozptylu ve strojovém učení se vztahem mezi nimi, který určuje prediktivní přesnost modelu.

v , výkon modelu je založen na jeho předpovědích a na tom, jak dobře se generalizuje směrem k neviditelným nezávislým údajům. Jedním ze způsobů, jak měřit přesnost modelu, je udržovat v úvahu odchylku a rozptyl v modelu. V tomto článku se dozvíme, jak odchylka odchylky hraje důležitou roli při určování autenticity modelu. V tomto článku jsou popsána následující témata:

Neredukovatelná chyba

Libovolný model v se posuzuje na základě chyby predikce u nové nezávislé, neviditelné sady dat. Chyba není nic jiného než rozdíl mezi skutečným výstupem a predikovaným výstupem. Pro výpočet chyby uděláme součet redukovatelné a neredukovatelné chyby aka rozklad zkreslení odchylky.





Nevratná chyba není nic jiného než ty chyby, které nelze snížit bez ohledu na to které používáte v modelu. Je to způsobeno neobvyklými proměnnými, které mají přímý vliv na výstupní proměnnou. Abychom váš model zefektivnili, zbývá nám redukovatelná chyba, kterou musíme za každou cenu optimalizovat.

Redukovatelná chyba má dvě složky - Bias and Variance , přítomnost zkreslení a rozptylu ovlivňují přesnost modelu několika způsoby, například overfitting, underfitting , atd.Podívejme se na zkreslení a rozptyl, abychom pochopili, jak řešit redukovatelnou chybu v .



Co je zkreslení ve strojovém učení?

Předpětí je v podstatě to, jak daleko jsme předpovídali hodnotu od skutečné hodnoty. Říkáme, že odchylka je příliš vysoká, pokud jsou průměrné předpovědi daleko od skutečných hodnot.

Vysoké zkreslení způsobí, že algoritmu bude chybět dominantní vzor nebo vztah mezi vstupní a výstupní proměnnou. Když je zkreslení příliš vysoké, předpokládá se, že model je poměrně jednoduchý a nezjistí složitost datové sady k určení vztahu, a tedyzpůsobující nedostatečné vybavení.

zvyšování čísla na sílu v Javě

Rozdíl v modelu strojového učení?

Na nezávislé, neviditelné datové sadě nebo ověřovací sadě. Když model nefunguje tak dobře jako u trénované datové sady, existuje možnost, že má model rozptyl. V podstatě to říká, jak rozptýlené jsou předpovězené hodnoty od skutečných hodnot.



Velká odchylka v datové sadě znamená, že model trénoval se spoustou šumu a irelevantních dat. To způsobuje nadměrné vybavení modelu. Když má model velkou odchylku, stává se velmi flexibilní a dělá špatné předpovědi pro nové datové body. Protože se naladilo na datové body tréninkové sady.

Pokusme se také matematicky porozumět pojmu zkreslení. Nechť proměnná, kterou předpovídáme, bude Y a ostatní nezávislé proměnné budou X. Nyní předpokládejme, že existuje vztah mezi těmito dvěma proměnnými takový, že:

Y = f (X) + e

Ve výše uvedené rovnici zde je je odhadovaná chyba se střední hodnotou 0. Když vytváříme klasifikátor pomocí algoritmů jako lineární regrese , atd., očekávaná čtvercová chyba v bodě x bude:

err (x) = Bias2+ Variance + neredukovatelná chyba

Rozumíme také tomu, jak Bias-Variance ovlivní a Strojové učení výkon modelu.

java převést z dvojitého na int

Jak to ovlivňuje model strojového učení?

Můžeme dát vztah mezi zkreslením-rozptylem do čtyř kategorií uvedených níže:

  1. High Variance - High Bias - Model je nekonzistentní a také v průměru nepřesný
  2. Nízká odchylka - vysoká odchylka - modely jsou konzistentní, ale v průměru nízké
  3. High Variance-Low Bias - Poněkud přesné, ale nekonzistentní v průměru
  4. Low Variance-Low Bias - Je to ideální scénář, model je v průměru konzistentní a přesný.

odchylka odchylky v strojovém učení-edureka

I když je detekce zkreslení a odchylek v modelu zcela evidentní. Model s vysokou odchylkou bude mít nízkou tréninkovou chybu a vysokou validační chybu. A v případě vysokého zkreslení bude mít model vysokou chybu tréninku a chyba ověření je stejná jako chyba tréninku.

Zatímco detekce se zdá být snadná, skutečným úkolem je snížit ji na minimum. V takovém případě můžeme provést následující:

  • Přidejte další vstupní funkce
  • Více složitosti zavedením polynomiálních funkcí
  • Snižte regularizační termín
  • Získání dalších tréninkových dat

Nyní, když víme, co je zkreslení a rozptyl a jak to ovlivňuje náš model, pojďme se podívat na kompromisní odchylku zkreslení.

Bias-Variance Trade-Off

Nalezení správné rovnováhy mezi předpětím a rozptylem modelu se nazývá kompromisní odchylka. Je to v zásadě způsob, jak zajistit, aby model nebyl v žádném případě ani přeplněný, ani podhodnocený.

Pokud je model příliš jednoduchý a má velmi málo parametrů, bude trpět vysokou odchylkou a nízkou odchylkou. Na druhou stranu, pokud má model velký počet parametrů, bude mít vysokou odchylku a nízkou odchylku. Výsledkem tohoto kompromisu by měl být dokonale vyvážený vztah mezi těmito dvěma. V ideálním případě je cílem každého modelu Machine Learning nízká odchylka a nízká odchylka.

Celková chyba

V každém modelu strojového učení slouží dobrá rovnováha mezi předpětím a rozptylem jako dokonalý scénář, pokud jde o prediktivní přesnost a zabránění nadměrnému vybavení, úplnému vybavení. Optimální rovnováha mezi předpětím a rozptylem, pokud jde o složitost algoritmu, zajistí, že model nebude nikdy nadměrně nebo nedostatečně vybaven.

Střední kvadratická chyba ve statistickém modelu je považována za součet kvadratických odchylek a rozptylu a rozptylu chyby. To vše lze vložit do celkové chyby, kde máme v modelu zkreslení, rozptyl a neredukovatelnou chybu.

Pojďme pochopit, jak můžeme snížit celkovou chybu pomocí praktické implementace.

Vytvořili jsme klasifikátor lineární regrese v Lineární regrese ve strojovém učení článek o Edurece využívající soubor dat o cukrovce v modulu datových sad z scikit učit se knihovna.

Když jsme vyhodnotili střední kvadratickou chybu klasifikátoru, dostali jsme celkovou chybu kolem 2500.

Abychom snížili celkovou chybu, vložili jsme do klasifikátoru více dat a na oplátku byla střední čtvercová chyba snížena na 2000.

Jedná se o jednoduchou implementaci snižování celkové chyby přiváděním více tréninkových dat do modelu. Podobně můžeme použít další techniky ke snížení chyby a udržení rovnováhy mezi zkreslením a rozptylem pro efektivní model Machine Learning.

Tím se dostáváme na konec tohoto článku, kde jsme se naučili Bias-Variance v Machoviine Learning s jeho implementací a případem použití. Doufám, že máte jasno se vším, co bylo s vámi v tomto tutoriálu sdíleno.

co jsou kuchař a loutka

Pokud vám tento článek o „Bias-Variance ve strojovém učení“ připadá relevantní, podívejte se na důvěryhodná online vzdělávací společnost se sítí více než 250 000 spokojených studentů po celém světě.

Jsme tu, abychom vám pomohli s každým krokem na vaší cestě a vytvořili osnovy určené pro studenty a profesionály, kteří chtějí být . Kurz je navržen tak, aby vám poskytl náskok v programování v Pythonu a naučil vás základní i pokročilé koncepty Pythonu spolu s různými jako , , atd.

Pokud narazíte na jakékoli dotazy, neváhejte se zeptat na všechny své dotazy v sekci komentářů „Bias-Variance In Machine Learning“ a náš tým vám rád odpoví.