ViP@Scale

Visuelle und multimodale Patentsuche in großen Datensammlungen

Fakten

Leitung

Prof. Dr. Ralph Ewerth

Projektbearbeitung

Sushil Awale, Dr.-Ing. Eric Müller-Budack

Förderung durch

Europäisches Patentamt

Laufzeit

April 2023 – März 2025

Das Ziel dieses Projekts ist die Entwicklung von neuartigen Deep-Learning-Ansätzen für die Informationsextraktion aus Texten und Bildern in multimodalen Patenten, um die Suche in großen Patentdatensammlungen zu verbessern. 

Beschreibung

In Patentdokumenten werden innovative Technologien und Ansätze in verschiedenen Modalitäten dargestellt, z.B. in Form von Textbeschreibungen, schematischen Zeichnungen und Diagrammen. Jede dieser Darstellungen enthält wertvolle Informationen über die beschriebenen Innovationen. Das Ziel dieses Projekts ist die Verbesserung von textbasierten Ansätzen zur Patentrecherche, indem sowohl textuelle als auch visuelle Inhalte eines Patents zur Suche genutzt werden. In Zusammenarbeit mit dem Europäischen Patentamt planen wir die Erforschung und Entwicklung neuartiger Computer Vision und multimodaler Ansätze (z.B. "Vision- Language-Modelle") für die Analyse von Patentabbildungen in großen Patentsammlungen, einschließlich:

  1. Objektlokalisierung und Instanzsegmentierung in Patentabbildungen
  2. multimodale Modelle zur Repräsentation von Patentbildern
  3. Anwendung der multimodalen Modelle auf verschiedene Aufgaben (z.B. multimodale Patentsuche)
  4. Evaluierung auf großen Testmengen unter Verwendung der Patentsammlungen des Europäischen Patentamts

zurück zur Liste


Feedback