Verbesserung von Klassifikationsverfahren
46,99 €*
Nach dem Kauf zum Download bereit Ein Downloadlink ist wenige Minuten nach dem Kauf im eigenen Benutzerprofil verfügbar.
Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.
Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.
Autor: | Dominik Koch |
---|---|
EAN: | 9783658114763 |
eBook Format: | |
Sprache: | Deutsch |
Produktart: | eBook |
Veröffentlichungsdatum: | 26.11.2015 |
Untertitel: | Informationsgehalt der k-Nächsten-Nachbarn nutzen |
Kategorie: | |
Schlagworte: | Boosting Lasso Nächste Nachbarn Random Forest k-Nächste-Nachbarn |
Anmelden
Möchten Sie lieber vor Ort einkaufen?
Haben Sie weiterführende Fragen zu diesem Buch oder anderen Produkten? Oder möchten Sie einfach doch lieber in der Buchhandlung stöbern? Wir sind gern persönlich für Sie da und beraten Sie auch telefonisch.
Buchhandlung Nettesheim GmbH
Hauptstraße 17
42349 Wuppertal
Telefon: 0202/472870
Mo – Fr09:30 – 18:00 UhrSa09:00 – 13:00 Uhr