====== Wunschliste für die v3 ====== ===== Algorithmisches ===== * Radon transform * Saliency map * Tamura * Helmholtz feature http://www.optinav.com/helmholtz.pdf * freak mit bow evaluieren * wavelets evaluieren (symlets) * pHash evaluieren (Alternative mit Wavelet statt DCT testen) * Glanz-Erkennung * Muster / Markenlogo besser erkennen * Segmentierung / Produktfreisteller (Region-Growing als Alternative für GrabCut, LaticeCut, LevelSetMethoden prüfen) (s.a. [[segmentierung|Segmentierung]]) * Kategorisierung * exact legendre moments http://arxiv.org/pdf/1005.5437v1.pdf * Scale-invariance in local heat kernel descriptors without scale selection and normalization http://hal.archives-ouvertes.fr/docs/00/44/26/19/PDF/RR-7161.pdf * Beschreibung / Tags / Verschlagwortung ===== Funktionen / Merkmale ===== * Hölle schnell {{/dokuwiki/lib/images/smileys/icon_smile.gif|:-)}} (Zeitansatz ca. 70k Bilder inkl. Download in < 1h (ca. 20 Img/sec), bei Ausnutzen der aktuell möglichen Parallelisierung) (1M Img/h bei bestehendem System (24 cores) sind das ca. 80ms/Img) * Alle Featureberechnungen via hauseigener Bibliothek * Test-Sets / Benchmarks / Unit-Tests * Monitoring und Status-Script zur Systemüberwachung * Update via zentraler Query (kein Blockieren der datafeed.php mehr) * Cachen der Enrichment-Berechnungen für schnellere Updates (LUT) * Intern kein jpg mehr wg. Kompressionsartefakten * Geschlechtererkennung * Stufenmodel (form dann farbe bzw. textur) * Thema von DamenOberBekleidung/Krinstina/Otto: Trends (metallic, Tiermuster) ===== Ablaufidee / Planung ===== //draft:// [[dokuwiki/lib/exe/fetch.php?media=draft_v3_landscape.pdf|draft_v3_landscape.pdf]] //?? Skizze// * Datenfeed des Kunden wird geladen, geprüft und in die mongoDB importiert (Update nur möglich wenn kein anderes Update für diesen Kunden noch läuft; //Kollisions-Vermeidung//) * Nicht länger vorhandene Einträge werden gelöscht * Neue Bilder werden zu Aufgabenpaketen mit max. 1000 ImgIds gebündelt und in die ToEnrich-Query mit Status “tbd” eingefügt * Auf den Indexern laufen Prozesse, welche die Arbeitspakete aus der Query nehmen und abarbeiten (Download der Bilder, Berechnung) * Wenn zu einem Kunden das letzte Arbeitspaket bearbeitet wurde wird die monetdb mit Update versorgt und ein BackUp der mongodb-collection des Kunden erstellt //Wichtig bei Bilderdownload:// * Download (wget) und anschließend Konvertieren (convert) in korrekte Größe und verlustlos komprimiertes Format * Laden des Bildes “as it is” in das ''%%enrichment%%'' dort bei Bedarf nur Filterstufen anwenden (Kompressionsverluste minimieren)