W ramach prowadzonej działalności, przygotowaliśmy moduły oprogramowania do gromadzenia i przetwarzania danych internetowych.
Do gromadzenia informacji zaimplementowaliśmy tzw. crawlery – czyli oprogramowanie, które w odpowiednio zaprogramowany sposób przemierza sieć Internet i gromadzi informacje.
Cechami tego oprogramowania jest duża możliwość konfiguracji kryteriów przemieszczania się po sieci Internet, oraz sposobu przetwarzania i zapisu lokalnie pozyskanych danych inernetowych.
Dodatkowo, na rzecz „obróbki” zgromadzonych informacji, rozwijamy oprogramowanie do:
- Walidacji danych – sprawdzenia poprawności
- Korekcji informacji – automatycznej ich poprawy
- Standaryzacji – korekcie wg wybranych standardów
- Wzbogacania – uzupełniania danych o informacje pochodzące z zewnątrz