Deep Web-Crawling
Webseiten und Foren werden nach spezifischen Suchparametern abgesucht, Link-Strukturen automatisch in die Tiefe verfolgt. Das menschliche Suchverhalten wird simuliert, um unverfälschte Ergebnisse zu erhalten.
Besonderheiten: Automatische Logins, Umgehung von IP- und Landessperren, Verarbeitung von Captchas, Link-Weiterleitungen und Tarnmechanismen für versteckte Inhalte.
Internet-Forensik
Basierend auf technischen Untersuchungen eruieren wir, wer für Online-Inhalte bzw. die technische Bereitstellung der Informationen verantwortlich ist, sowie wo Daten faktisch gespeichert werden. Besondere Bedürfnisse können durch zusätzliche Recherche-Dienstleistungen (Social Engnineering) erfüllt werden.
Big Data Analysis
Unstrukturierte Daten aus heterogenen Quellen werden normalisiert, in eine mit dem Kunden abgestimmte Struktur eingepasst, kategorisiert, bewertet und überprüft.
Die Kombination von zentral definierten Regeln, dezentraler Bearbeitung und Lernmechanismen nach der Methodik von Expertensystemen ermöglichen eine optimale Interaktion von Mensch und Maschine.
Automatisierte Online-Recherchen
Optimierte Anfragen werden automatisiert an Suchmaschinen geschickt, Rankings der Anbieter werden ebenso umgangen wie Ergebnisbeschränkungen.
Parallele Stapelverarbeitung für regelmäßige Suchaufträge. Regional und sprachlich bedingte Unterschiede (z.B. durch Anfrage aus verschiedenen Ländern) können sichtbar gemacht werden.
Automatisierte IT-Workflows
Unsere Entwicklungsumgebung für Skripte und Kommandozeilen-Tools beinhaltet vordefinierte Ein-. und Ausgabekanäle für unterschiedliche Datenquellen und ein spezialisiertes .NET Framework und erlaubt schnelle Entwicklung von Multithread-Programmen. Zeitsteuerung und paralleles Cloud-Computing sind möglich.