De data voor regiotermen wordt beheerd in Omeka S. Dit is een krachtig open source platform voor het beheren en publiceren van digitale collecties, dat zich bij uitstek leent voor gebruik binnen linked data projecten. Dankzij de flexibiliteit van Omeka S kunnen gebruikers datamodellen vormgeven die nauw aansluiten bij internationale standaarden. Dit vergemakkelijkt interoperabiliteit en het delen van rijke metadata over diverse domeinen.
Een belangrijk voordeel van Omeka S in dit kader is de ondersteuning voor Persistent Identifiers, waaronder ARK (Archival Resource Key). Door aan elk digitaal object een unieke, blijvende ARK toe te wijzen, wordt gegarandeerd dat resources traceerbaar en betrouwbaar toegankelijk blijven op de lange termijn. In combinatie met het Schema.org-model is het mogelijk om semantisch betekenisvolle en breed herbruikbare datasets te creëren, die naadloos aansluiten op het mondiale linked data ecosysteem.
Het is gelukt om de verschillende soorten termen binnen het project te modelleren volgens Schema.org. Hierdoor zijn concepten als personen, organisaties, locaties en objecten gestandaardiseerd beschreven, zodat ze uitwisselbaar en interoperabel zijn binnen het linked data landschap. Waar Schema.org niet volledig dekkend was voor specifieke projectbehoeften, zijn aanvullende attributen uit andere relevante ontologieën geïntegreerd. Dit zorgt ervoor dat gedetailleerde semantische informatie behouden blijft, terwijl het geheel toch blijft aansluiten bij internationale linked data standaarden en best practices.
Door deze aanpak is zowel de machineleesbaarheid als de herbruikbaarheid van de data sterk vergroot, met nauwkeurige en gedocumenteerde beschrijvingen van iedere soort term. Bij interesse in de datamodellen, neem dan gerust contact op.
De technische architectuur is van de hand van Jeroen Seeverens.
Voor de verdere doorontwikkeling van ons platform ligt de nadruk op een flexibele en opschaalbare architectuur waarin semantische verrijking, duurzame identificatie en DevOps-principes samenkomen.
Voor de duurzame identificatie van entiteiten maken we dus gebruik van ARK’s als persistente identifiers (PIDs), ontsloten via een eigen custom resolver‑script, zodat deze langdurig en stabiel bruikbaar blijven.
Voor publieksparticipatie wordt de Collect‑module ingezet, waarmee bezoekers input kunnen leveren (bijvoorbeeld verhalen of aanvullingen). In de verdere implementatie blijven we headless werken, met uitzondering van dit formulier voor publieksinteractie. De integratie met de LinkedDataSets‑module van het Netwerk Digitaal Erfgoed (NDE) maakt het mogelijk om onze datadumps automatisch te publiceren via gestandaardiseerde endpoints.
Met het oog op opschaling van de zoekfunctionaliteit voorzien we de mogelijkheid van geautomatiseerde indexering in Solr, waarmee complexe zoekvragen sneller afgehandeld kunnen worden.
Op infrastructuurniveau staat DevOps‑automatisering centraal. De installatie en configuratie verlopen volledig via Ansible‑scripts, waarmee omgevingen herhaalbaar en consistent opgezet worden. Als volgende stap onderzoeken we de inzet van containerisatie (bijvoorbeeld met Docker of Kubernetes) om de schaalbaarheid en portabiliteit verder te vergroten.