Ich habe folgendes Problem:
Ich suche ein Programm oder eine Methode, welche(s) mir automatisch gewisse Textteile und Links aus mehreren (vom Aufbau und der Struktur her identischen) HTML-Pages ausliest und diese mir ausgibt (wie spielt eine weniger grosse Rolle, es geht vor allem um die verschiedenen Daten). Das heisst also, dass auf den vorhandenen HTML-Seiten Sätze oder Links gleich und teile verschiedenen, bzw. variablen Inhaltes sind. Ziel ist es nun, die variablen Informationen aus den Dateien rausfiltern und diese auszugeben, damit ich sie z.B. zu statistischen Zwecken weiterverwenden kann. Mittels einem Programm könnte ich somit die Daten alle paar Wochen wieder neu einlesen und weiterverwenden...
Weiss jemand, wie ich dieses Unterfangen bewerkstelligen könnte?
Vielen Dank für eure Ratschläge!
Ich suche ein Programm oder eine Methode, welche(s) mir automatisch gewisse Textteile und Links aus mehreren (vom Aufbau und der Struktur her identischen) HTML-Pages ausliest und diese mir ausgibt (wie spielt eine weniger grosse Rolle, es geht vor allem um die verschiedenen Daten). Das heisst also, dass auf den vorhandenen HTML-Seiten Sätze oder Links gleich und teile verschiedenen, bzw. variablen Inhaltes sind. Ziel ist es nun, die variablen Informationen aus den Dateien rausfiltern und diese auszugeben, damit ich sie z.B. zu statistischen Zwecken weiterverwenden kann. Mittels einem Programm könnte ich somit die Daten alle paar Wochen wieder neu einlesen und weiterverwenden...
Weiss jemand, wie ich dieses Unterfangen bewerkstelligen könnte?
Vielen Dank für eure Ratschläge!