urbanists.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
We're a server for people who like bikes, transit, and walkable cities. Let's get to know each other!

Server stats:

523
active users

#dublincore

0 posts0 participants0 posts today

Some thoughts on my preliminary investigation of #Omeka ( omeka.org/classic/docs/Install ).

Built on pretty standard #LAMP stack.
No official docker image that I could find, so of course I built my own.
Which reminded me why I HATE php.

Anyway.

Some light testing (running locally).
Pretty simple to use (good).
No fancy ideas about creating "presentation" versions of items, and keeping the original upload "pristine". I am of two minds on this - for now, not a problem for me, but I can see how large archives might be problematic.

For example, a MOV file needs to be presented as a MP4 for widest audience. And you probably don't want to lose the original.
With Omeka that means some manual work on the admin side.

It support plugins and themes - I'm of two minds here also. Good way
to extend functionality and allow for customization, but my experience with such things are not good ito longterm stabililty and maintenance.

I'm also not super keen on #MySQL as the db, due to recent corruptions issues with my #Nextcloud instance (moved that to #PostgreSQL ).
BUT, this will be read heavy, so maybe not an issue - hard-ish to corrupt a db by reading from it.

The useage of #DublinCore at least means (I think) in theory, if I really want, I should be able to migrate to another Dublin Core compatible system if needed. So...good.

My verdict - I'm going to play with it some more.
Install some plugins etc, see what happens.
I'm also building up a test set of assets, in case I want to eval something else.

omeka.orgInstallation - Omeka Classic User Manual
Continued thread

In einem gemeinsamen Workshop der Konsortien @NFDI4Memory , @nfdi4objects und @Textplus auf der #DHd2025 wurde anhand konkreter Use Cases eine Einführung in #DublinCore, #TEI und #LIDO vermittelt, die Bedeutung von #Normdaten und #Terminologien betont und die #Minimaldatensatz-Empfehlung für #Museen und #Sammungen vorgestellt. Die Folien finden sich bei Zenodo: zenodo.org/records/15052040

#FAIR #CARE #NFDI #Text+ #NFDI4Memory #NFDI4Objects #Datenharmonisierung #Datenqualitaet 2/2

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMaterialien zum Workshop "Qualitativ hochwertige Metadaten in digitalen Editionen“, der im Rahmen der „DHd 2025: Under Construction“ in Bielefeld von Mitarbeiter:innen der NFDI-Konsortien Text+, NFDI4Memory, NFDI4Objects, der Verbundzentrale des GBV und dem Institut für Museumsforschung gehalten wurde. Ziel des Workshops war die praxisnahe Vermittlung von Wissen zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen. Ausgehend von konkreten Fallbeispielen in Form verschiedener Überlieferungssituationen von Briefen (neu zu erschließen, Abschrift, indirekter Hinweis) wurden die Problemfelder aufgerissen, die hinsichtlich der Beschreibung der verschiedenen Arten von Metadaten auftreten können. Drei Übungsblöcken waren jeweils kurze thematischen Einführungen zu den Basisthemen Metadaten, Normdaten und kontrollierten Vokabularen, Dublin Core, LIDO sowie Datenqualität und Datenkuratierung vorangestellt. In den Praxisübungen arbeiteten die Teilnehmer:innen in Gruppen oder eigenständig mit den Metadaten-Standards Dublin Core, LIDO und TEI-XML. Die Übungen zielten darauf ab, die Erstellung von Metadatensets, auch anhand von Metadateneditoren, zu erproben und aus der eigenen Erfahrung Methoden zur Bewertung der Qualität und zur Bereinigung eigener bzw. bereits vorhandener Metadatensets zu entwickeln.
Continued thread

@Textplus @NFDI4Memory

Da dieser Workshop aufgrund des wichtigen Themas sehr schnell ausgebucht war, finden Sie hier das Abstract: zenodo.org/records/14943264.

#DHd2025 #Metadaten #Normdaten #Terminologien #Vokabulare #digitaleEditionen #Datenqualität #Minimaldatensatz #TEI #LIDO #DublinCore #Personennamen #Ortsnamen #Standardisierung

Wir freuen uns auf den Austausch, sowohl auf der DHd als auch danach.

ZenodoQualitativ hochwertige Metadaten in digitalen EditionenMetadaten sind der zentrale Schlüssel, um Datenpublikationen verfügbar, indexierbar und verknüpfbar zu machen. Sie geben Aufschluss über die Provenienz, Erfassung und Bearbeitung von Daten und ermöglichen den Communities, die Daten nachnutzen möchten, eine Kontextualisierung ihrer Entstehungsbedingungen. Reich an potentiellen Metadatenquellen stellen Editionen – digitale wie analoge – durch Register, Apparate, Personen- und Ortsnamen sowie die Dokumentation von Textbearbeitungsstufen die Erfassung mittels standardisierter Formate vor besondere Herausforderungen. Der Workshop fokussiert die Erzeugung standardbasierter Metadatensets von und für die Erarbeitung von Editionen unter dem Gesichtspunkt von Metadatenqualität. Im Workshop werden daher praxisnah Kenntnisse zur Bewertung und Verbesserung der Qualität von Metadaten in digitalen Editionen vermittelt. Zu den Kernelementen zählen Praxisübungen in Kleingruppen anhand konkreter Use Cases (Dublin Core, LIDO) und für die Herstellung digitaler Editionen relevanter Metadaten-Standards. Den Hands-On-Phasen vorangestellt sind konzise Einführungen zu den Feldern und Standards von Metadatenformaten, kontrollierten Vokabularen, Aspekten der Datenqualität und Phasen der Datenkuratierung.