Vorheriges Thema anzeigen :: Nächstes Thema anzeigen |
Autor |
Nachricht |
chutullu
Anmeldungsdatum: 18.10.2005 Beiträge: 77
|
Verfasst am: 23.12.2007, 19:24 Titel: [Tutorial] Neuronale Netze |
|
|
Hallo Forum,
ich möchte euch den ersten Teil meines Neuronalen Netz Tutorial vorstellen.
http://www.freebasic-portal.de/index.php?s=tutorials&id=34&seite=1
Als nächstes Paradigma ist das Adaptiv Linear Neuron geplan, weiß noch nicht genau wann es fertig wird.
Viel Spaß beim Lesen. |
|
Nach oben |
|
 |
Paul aka ICC, HV-Freak
Anmeldungsdatum: 11.09.2004 Beiträge: 588 Wohnort: Uelzen
|
Verfasst am: 23.12.2007, 22:35 Titel: |
|
|
Dankesehr Werde ich mir gleich mal zu Gemüte führen. Finde das Thema auch sehr interessant! _________________
 |
|
Nach oben |
|
 |
marzec
Anmeldungsdatum: 13.10.2004 Beiträge: 267
|
Verfasst am: 25.12.2007, 15:30 Titel: |
|
|
hut ab, ist sehr gut geschrieben, hätte auch keine großen fehler gefunden. vll. solltest du erwähnen, dass solche linearen classifier mit rauschen im datensatz nicht umgehen können. auch würde ich versuchen herauszuschälen worum es beim supervised lernen konkret geht. eine erweiterung auf online learning im fall des perceptrons könntest du auch angeben. sieh dir die paper zum budget perceptron bzw. forgetron an (google)
eine literaturliste wär auch noch schön. _________________ Yagl - yet another gameprogramming library |
|
Nach oben |
|
 |
chutullu
Anmeldungsdatum: 18.10.2005 Beiträge: 77
|
Verfasst am: 25.12.2007, 17:02 Titel: |
|
|
Hallo marzec,
danke für Deine Kritik.
Zitat: | vll. solltest du erwähnen, dass solche linearen classifier mit rauschen im datensatz nicht umgehen können. |
Das mag sein, jedoch sollte man den Einsatz eines einzelnen Perceptrons nicht zwingend mit verrauschten Eingangswerten in Verbindung bringen. Schließlich handelt es sich um Grundlagen.
Zitat: |
auch würde ich versuchen herauszuschälen worum es beim supervised lernen konkret geht |
"Supervised" heißt überwacht und mehr nicht. Es werden Eingangs- und Ausgangswerte vorgegeben, nach denen das Netzwerk ausgerichtet, trainiert wird. Ich werde in den folgenden Betrachtungen noch einmal auf das Thema Lernen eingehen, spätestens wenn ich mehrschichtige Feedforward Netze mit "error backpropagation" behandle. Das Perceptron wurde als Einstieg gewählt, wobei ich alles was ausführliche weggelassen habe. Mein Gedanke ist den Leser mit jedem neuen Tutorial etwas tiefer in die Materie einsteigen zu lassen.
Zitat: | eine erweiterung auf online learning im fall des perceptrons könntest du auch angeben. sieh dir die paper zum budget perceptron bzw. forgetron an
|
Muss die whitepapers erstmal durcharbeiten, auf den ersten Blick kommt mir das Thema neu vor, danke für den Tipp.
einen schönen Tag noch |
|
Nach oben |
|
 |
Mao
Anmeldungsdatum: 25.09.2005 Beiträge: 4409 Wohnort: /dev/hda1
|
Verfasst am: 25.12.2007, 23:03 Titel: |
|
|
Interessantes Tutorial, aber ein bisschen mehr Detailwissen fänd ich auch für ein Einsteiger-Text nicht schlecht.  _________________ Eine handvoll Glück reicht nie für zwei.
--
 |
|
Nach oben |
|
 |
chutullu
Anmeldungsdatum: 18.10.2005 Beiträge: 77
|
Verfasst am: 26.12.2007, 10:32 Titel: |
|
|
Ich beuge mich dem Druck der Masse und werde etwas näher auf die Lernverfahren "supervised"/ "unsupervised" und die verschiedenen "Aktivierungsfunktionen" eingehen.
mfg |
|
Nach oben |
|
 |
|