Das klingt jetzt sicher etwas newb-like, aber ich wollt mich mal an einer Sprachsteuerung versuchen. Ich hab zwei Bücher über "Neurolale Netzwerke" gelesen und dabei herausbekommen, dass man eben diese Netze benutzt, um Muster zu vergleichen, die nicht 100%ig übereinstimmen müssen. Sie werden auch in der Buchstaben- und Spracherkennung eingesetzt.
Ich hab mir das ganze so vorgestellt, dass ich den Input eines Mikros über die Soundkarte einlese (Anleitung siehe Link, denn ich im letzten Post gegeben hab), das ganze per FFT umrechne (da muss ich mich noch etwas genauer informieren, ganz hab ich noch nicht intus, was genau ich wie und vor allem WARUM umrechnen muss...). Das ganze muss dann nur noch für ein neuronales Netz aufbereitet werden (ich dachte da an entweder an einen Autoassoziator oder ein 3-schichtiges Netz ). Sobald es da durch ist, kann man das Ausgangsmuster einfach mit einem bereits gespeicherten Muster vergleichen und entsprechend darauf reagieren.
So ungefähr müsste eine Sprachsteuerung in meinen Augen funktionieren (ich bin gerne für Kritik offen, falls ich unrecht haben sollte). Hat jemand hier im Forum schon mal was dementsprechendes probiert?
Was mir im Moment aber noch unklar ist: Wozu brauche ich genau die FFT? Was wird wozu umgerechnet? Kann mir da jemand einen Tip geben
?