Auktoritetsfiler och beständiga identifierare i praktiken

Viktor Lundgren CC BY

Foto: Viktor Lundgren CC BY

Vad menas med auktoritetsfiler?

När man ska skapa kopplingar mellan digital information från olika institutioner, domäner och metadatamodeller, kan informationen länkas samman genom så kallade auktoritetsfiler. Det innebär att datakällor som kan vara referenspunkter för beskrivning av information från flera institutioner tillgängliggörs online. Dessa kan t.ex. vara personer, organisationer, platser, händelser, ämnen och liknande data som har att göra med samlingarna men som är av mer generell natur och på så sätt oberoende av kulturarvssektorns olika traditioner av informationshantering. Via dessa data kan man sedan referera till arkiv-, biblioteks- eller museimaterialet.

Auktoritetsfiler är också en lättillgänglig sökingång för den användare som saknar insikt i hur arkiv, bibliotek och museer ordnar sina samlingar. Samtidigt innebär filerna att även om sökbarheten förbättras, så blir det i längden inte så enkelt att få fram relevanta resultat endast med hjälp av dem. Ibland finns också auktoritetsfiler som refererar till olika aspekter av samma företeelse. Till exempel kan en person förekomma i flera olika auktoritetslistor, i olika roller.

Sökandet efter Viktor Lundgren – Ett praktiskt exempel

Som ett praktiskt exempel kan vi nämna att vi inom arbetsgruppen för Riksarkivets pilotprojekt i Västernorrland  valt att länka samman fotografier av fotografen Victor Lundgren. (Se mer information i en tidigare bloggpost ). I Murbergets  samlingssystem hittade vi en hel del fotografier av Viktor Lundgren, bland annat med hästar som motiv. I NAD (Nationella Arkivdatabasen)  fanns det en fotografisamling av Janrik Bromé där vi fick en träff på samma fotograf, Viktor Lundgren, men inte som fotograf utan som motiv på en fotografi. Troligtvis var det ett självporträtt han tog som skulle skickas som julkort, med följande text på kortets baksida: ”God Jul och Gott Nytt år! Tillönskar Viktor Lundgr” (resten saknas).

Men vårt sökande efter fotografen Viktor Lundgren i det nationella fotografregistret i Kulturnav  gav inga träffar, trots att det fanns en auktoritetspost av honom som fotograf inbäddad i en metadatapost från Sundsvall museum. I Kulturnav är det möjligt att samarbeta kring auktoritetslistor, och i arbetsgruppen diskuterade vi om man kan lägga till en auktoritetspost i det nationella fotografregistret. Vi tog kontakt med Kulturnav/Nordiska museet och fick hjälp med att lägga till en auktoritetspost om fotografen Viktor Lundgren i registret, så att vi kunde länka till den. Posten om Lundgren som fotograf länkades även till posten i Libris. Nu dök även en intressant fråga om identifierare upp. I allmänhet bör auktoritetsfiler inte dupliceras, men här fanns det två olika auktoritetslistor. Den ena listan omfattar författare och pekar på Lundgren i sin roll som författare, och den andra, nationella fotografregistret, pekar på Lundgren i hans roll som fotograf. Fotografier av Lundgren fanns även med i Svenska Turistföreningens arkiv på Nordiska museet, men fotografierna i databasen var enbart märkta ”V Lundgren” och hans namn hade följaktligen inte hamnat i registret. Nu när Lundgrens namn fanns i registret kunde även dessa poster och medföljande information kopplas till auktoritetsposten.

När vi fick reda på grundläggande information om Viktor Lundgren kunde vi lätt hitta mycket mer information om honom i NAD, inklusive kyrkoböcker (födelseböcker, sockenbok och länsrättsliga arkiv (bouppteckning). Vi kunde även hitta information om Lundgren som författare och information (och auktoritetsfil) i Libris  och VIAF (Virtual International Authority File).

Och sedan?

Det finns ingen tvekan om att Lundgren bör finnas i flera listor, i sina olika roller, men finns det ett behov av två separata beständiga identifierare? Ska en ”samma som ”-sammanlänkning skapas eller borde identifieraren från Libris/VIAF återanvändas? Tekniskt sett finns det flera vägar att gå, som är delvis beroende av den tekniska plattformen, och det är en intressant fråga att arbeta vidare med framöver.

Sanja Halling

Seminarium om persistenta identifierare

b2ap3_thumbnail_axe.jpg

b2ap3_thumbnail_axe.jpg
Neolitisk stenyxa från West Sussex. Pitt Rivers Museum.

Uppdatering 23 feb: Programmet är nu klart och finns här.

Är du intresserad av att sammankoppla digital kulturarvsinformation genom auktoritetsposter? Har du funderat på hur beständiga identifierare för informationen ska se ut? Den 7 mars kommer ett halvdagsseminarium om beständiga identifierare (persistent identifiers – PID) att äga rum i Stockholm.  Seminariet organiseras inom ramen för projektet ”Culture Broker – Testplattform i Västernorrland” som Riksarkivet koordinerar, i samarbete med Digisams pilotprojekt om lagring för långsiktigt användbarhet.

Auktoritetsfiler är en typ av resurser som det pratas mycket om idag eftersom de kan vara till stor gemensam nytta för att koppla samman material från olika kulturarvsinstitutioner. De är därför särskilt värdefulla att tillgängliggöra som öppna data. Auktoritetsfiler är listor med auktoriteter  t.ex. ortsnamn eller personnamn, som ofta är av brett intresse för många aktörer. För närvarande pågår en uppbyggnad av olika plattformar för hantering av auktoriteter (terminologier, tesaurier, kontrollerade vokabulärer). En förutsättning för en hållbar användning av dessa plattformar är att de stöds av en beständig struktur för identifierare (se vidare i Digisams Checklista för beständiga identifierare).

Programmet för seminariet  är fortfarande under arbete men några punkter i programmet kommer att omfatta utformning av URI:er för kulturarvsinformation med exempel  från NAD, KB, och K-samsök, en case study från TORA-projektet, samt en presentation om hur beständiga identifierare utformas i KulturNav och hur de hanteras inom forskningsvärlden.

Workshopen vänder sig till alla som är intresserade av eller redan idag arbetar med beständiga identifierare. Det är begränsat antal platser så det är först till kvarn som gäller.
Tid: Kl 9.00-12.30 den 7 mars 2016.
Plats: SUNET, Tulegatan 11, Stockholm
Anmälan görs till lina.marklund@riksarkivet.se senast 1 mars.

Sanja Halling

Linked data and the future of aggregation

bild1

Today, we live in a world with great expectations on digital access to information. Adapting to those expectations brings on a strong need for increased availability and quality of digital cultural information online. According to the latest report from Enumerate about digitisation, digital access and preservation at the cultural heritage institutions, most of the participating institutions in the survey have a rich mix of cultural heritage materials. On average 23% of the heritage collections has been digitally reproduced.  32% of the digitally reproduced and born-digital heritage collections at the institutions are available online for general use. Obviously, there is a lot more to be done. Which are the main obstacles in making cultural heritage information available and usable online?

Cultural heritage information today is mainly described according to traditional methods that have been created over a long time. The digital era has given us tools to show the institutions’ collections in a way that eliminates physical limitations and therefore the material/information can reach a wider audience than ever before. New technology has also given heritage institutions opportunities to create digital stories and engage users in the digital cultural arena. Still, the new technical possibilities are sometimes seen as limitations rather than opportunities, mainly because they are challenging professionals to think differently and change their traditional ways of describing information. Technology is only an instrument for adding value –  the real challenge is not to use technology for its own sake, as a fashionable add on, but as a way to create something completely new.

Metadata is structured data used for identification and description, and for facilitating access. Metadata refers to the information that describes an object, ”data about data”. There are currently several different types of descriptive metadata standards in use for managing digital cultural heritage information. 

Objects and documents that from the beginning was part of the same collection or held at the same institution could today be fragmented across several types of organisations or parts of an organisation. Description of those objects and documents would then have been based on the traditions (for example, for registration of objects and cataloguing of documents) that were current at the time the different collections were created. This means that today those old traditions are still defining how information is being “translated” in the digital format.

 bild1

Taking a map as an example, it can be described in very different ways depending on which cultural heritage domain it is described in. Sometimes the descriptions are similar, but expressed in different ways, but sometimes it is actually complementary information. A map is described as an object in the museum systems, with a description made in associated metadata standards; while , as an archival object, it would be described with entirely different descriptions and under other procedures and standards than in a museum system.

What does this mean? At the museum you could probably find a lot of information about, for example, a specific drawing or a certain aquarelle painting technique used for producing this specific map. At the archive, you could instead learn a lot about the context of this very map, revealing not so much about the document itself as at the museum, but for example about the people and the organisations that were involved in creating this map, and why it was created, who has owned it and so on. At the library, you could see if it also was a part of a hand-drawn atlas, and if it is possibly related to published reproductions. And the person, who made the map, is he defined as an artist, land surveyor, cartographer, illustrator or a records creator?

This means that it is quite difficult today to find out about all the aspects of one map in only one search- It takes quite a lot of navigation between different online portals and websites to get there. The situation is further complicated by the fact that different descriptions of information are not harmonised between different domains, so the same word, for example the term “provenance”, has different meanings across different domains. This makes it complicated for the user not knowing about all the models of the descriptions. Putting all those descriptions together in a meaningful way is the key issue for making qualitative cultural heritage information available to be used and reused easily between different domains. In order to achieve this, there is a general need at the cultural heritage institutions for common technical support for implementation of established international metadata standards and for making links between different data sets.

Today, cultural heritage institutions invest a lot of time and resources to get over those obstacles by developing processes of aggregation. When talking about digital cultural heritage, the word aggregation often refers to the transfer of collections of metadata from different institutions to different kinds of web portals, or for making metadata available through APIs. The processes of aggregation are connected to aggregators. Linked Heritage defines aggregator as follows: In the context of digital cultural heritage and particularly in the context of Europeana, aggregators are gathering material from individual organisations, standardising formats and metadata into a common model, and channelling them into Europeana according to the Europeana guidelines and procedures. There are different kinds of aggregators; country specific (national or regional, cross-domain or domain specific), project aggregators and independent organisations.

The services the aggregators provide are based on different ”mappings” (translations) between different metadata models, between those used at the institutions and the ones needed for delivering the information to the aggregators and their services and online portals. Today it requires a lot of time and resources to develop and manage the mappings of cultural heritage information, which is under constant development. Every single change at the institution, as for example a transfer to an updated version of the collection management system or a change of the metadata model of the national aggregator brings with it additional costs. 

This also means that at the end of the aggregation processes, information between different institutions or domains is often being harmonised at the very basic common level, by making connections only between those parts of the description that really are comparable between different institutions. This makes it easier for the user to find information from different domains in one search only. However, that still leaves those users that are searching for additional information, or asking more advanced questions, with the trouble of having to navigate through different digital sources.

 bild2

Aggregation digital cultural heritage – current situation bottlenecks Image: Elco van Staveren CC BY-SA 2.0

The future of these issues seems to have become much brighter since the development of the semantic web, and big data technology is opening up new possibilities for making information qualitative, linkable and usable in a lot of different ways. Will the role of the aggregators in the future be to link together all information instead, thus creating added value in terms of quality and complementary information?

Nevertheless, there are still issues to be solved before semantic technologies can be widely implemented at an institutional level. Interlinking with other data sets is done on a quite basic level today, and there is a lot more to be done before we can take real advantage of the semantic web. There is still a need to standardise the descriptions for enabling models for linking the information that is described on completely different levels. A promising model that would allow cultural heritage information from different domains to be linked and expressed in high quality, is CIDOC CRM, an ISO standard. The latest version was published in 2015, including a CRM RDFS schema. There is also already a lot of work done to harmonise CIDOC CRM with metadata standard schemas, resulting in FRBR00 (harmonisation with library material) and CIDOC CRM Sci (scientific observations). This sort of standardisation helps to create automated (or semi-automated) linking processes. 

 bild3

Linked data Image: Elco van Staveren CC BY-SA 2.0

However, when one talks about linked open data, it also means that data needs to be open. Here, Europeana has done an excellent work pushing forward CC0-licences for metadata.  That is the main strength of the EDM model – making it possible for developers and users to freely create applications based on the material from Europeana. Neverthless, when searching for additional, or more advanced information, developers are left with the trouble of navigation through different materials, most of it not linkable and with unclear licences. Institutions that are willing to provide more metadata descriptions to Europeana as CC0 are often unable to do that. Partly it is because of current aggregation processes and partly because the EDM model is established as an ontology on a basic common level, not adapted to manage all the additional information based on non-harmonised different data models coming from different institutions and aggregators. 

Therefore, it would be very interesting to see the possibilities of connecting EDM and CIDOC CRM-RDFS models, thus enabling institutions to provide as much information as linkable open data as they want to. Attempts to see connections between those models were done, for example in this Graphical representation of the harmonised EDM-CRM models. This could be a pragmatic way of evolution to a future in which the institutions themselves are, step by step, changing from collection databases to linked data. This would be a way of improving interoperability of cultural heritage data at the same time as making it linkable. Of course, that would be a long term perspective. In the near future, this could be done at the aggregators’ level in combination with common tools and services for making those processes easier.

What does all this means for the future of aggregation? Today, metadata still needs to be aggregated. It takes time to adapt to linked open data and it requires new kind of expertise at the institutions, and implementation or development of new tools and services.

Working towards an evolving method of creating linked open data would certainly be a way to create usable data across domain boundaries, to link together all information, thus creating added value in terms of quality and complementary information.

Hopefully, this will be a future step for the aggregators.

Sanja Halling

 

LIDO och MINT – Vad är det och hur fungerar det?

b2ap3_thumbnail_riverpitts.jpg

b2ap3_thumbnail_riverpitts.jpgMynt. Pitt-Rivers Museum, Oxford. Foto: Liza. CC BY. Bilden beskuren.

Den 21 maj organiserade Digisam, tillsammans med Nationalmuseum och Livrustkammaren och Skoklosters slott med Stiftelsen Hallwylska museet, en heldags-workshop på Skeppsholmen i Stockholm inom ramen för EU-projektet AthenaPlus. Ett 40-tal deltagare från både Sverige och övriga Europa samlades då för att lära mer om och diskutera LIDO och MINT.

Vad är LIDO och MINT?

LIDO (Lightweight Information Describing Objects) är en tillämpning av CIDOC CRM och rekommenderas av ICOM. Oavsett vilken standard som finns i museernas databaser eller system kan metadata oftast aggregeras i LIDO på ett sätt som behåller mycket mer strukturerad information från det ursprungliga formatet än vad andra format kan göra. LIDO-formatet främjar interoperabilitet för aggregering av museidata på europeisk nivå och används i de flesta EU-finansierade projekt som levererar data till Europeana.

MINT är en webbaserad plattform som har utvecklats för att underlätta aggregering av metadata från europeiska institutioner. Med MINT kan man ladda upp, validera och leverera metadata som sedan kan skördas direkt av Europeana.

Presentationer

Under förmiddagen presenterades LIDO av Regine Stein från Bildarchiv Foto Marburg och Gordon McKenna från Collections Trust. Presentationen hittar du här.

Därefter fortsatte Regine Stein med att berätta vilka krav som ställs vid bl.a. indexering av innehåll. Den presentationen finns här.

Under eftermiddagen visade Nikolaos Simou från Atens tekniska universitet hur man kan mappa metadata i LIDO genom MINT. Presentationen hittar du här.

Sanja Halling

Rent och fint ska det vara

b2ap3_thumbnail_washing.jpg

b2ap3_thumbnail_washing.jpg
Kvinna tvättar i zinkbalja Foto: Karl Heinz Hernried, Nordiska museet (CC:BY:NC:ND)

Metadata, alltså data om data, är av avgörande betydelse för den som arbetar med dokumentation, databaser, versionshantering eller (semantisk) webb. Det gör vi ju nästan allihop nu för tiden och ju mer beroende vi blir av metadatan desto viktigare blir det också att den är korrekt och tillförlitlig. Bara då är det möjligt att till fullo utnyttja de rika resurser som ligger i samlingarna, att hitta i materialen och t ex koppla samman objekt från samma tid eller plats. Därför bör den som har ansvar för ett samlingssystem regelbundet granska sina metadata och avsätta rimlig tid för kvalitetshöjande datatvätt. Som stöd i det arbetet har vi utarbetat en Checklista för metadatastatus som nu finns på Digisams webbplats, och vi hoppas att den kan göra det lättare att komma i gång.

Johanna Berg

Checklista för beständiga identifierare

b2ap3_thumbnail_lista_20150528-115132_1.jpg

b2ap3_thumbnail_lista_20150528-115132_1.jpg

Bild: S. Danelius CC-0

I ett tidigare blogginlägg har jag skrivit om beständiga identifierare – unika kodsträngar kopplade till digitala poster. Vi publicerade då också ett utkast till en checklista för vad man kan tänka på vad gäller beständiga identifierare.

Checklistan har nu redigerats klart i samverkan med ett antal experter och är tänkt att fungera som ett stöd för kulturarvsinstitutionerna. Vi vill tacka alla som har skickat oss sina synpunkter och kommentarer! Listan finns publicerad här.

Sanja Halling

Ny plattform för terminologier och auktoritetsfiler

b2ap3_thumbnail_athenatmp.jpg

b2ap3_thumbnail_athenatmp.jpg

TMP, Thesaurus Management Platform, är en nyligen släppt webbplattform som tillhandahåller en samverkansyta för kulturarvsinstitutionerna och andra aktörer där möjligheter finns att publicera, redigera och ta del av andras auktoritetslistor, tesaurier, med mera.

TMP utvecklades inom ramen för två europeiska projekt tillägnade det digitala kulturarvet. Den första versionen utvecklades i Linked Heritage-projektet och utvecklingen av den andra versionen pågår i AthenaPlus-projektet där webbplattformen nu har öppnats för användning.

Plattformen kan hantera flerspråkiga terminologier vilket underlättar sammanlänkningar. Det är även möjligt att uppge hierarkiska relationer.

Mer om TMP kan du läsa om på AthenaPlus blogg.

Sanja Halling

Europeana Tech 2015

Eurotech-konferensen

Eurotech-konferensen
Eurotech-konferensen

Förra veckan gick EuropeanaTech 2015-konferensen av stapeln i Paris. Konferensens övergripande tema ”Making the Beautiful Thing, Transforming Culture with Technology” handlade både om nya innovativa tekniska möjligheter för att visa vårt gemensamma kulturarv och om den tekniska utvecklingen som Europeana står inför, bland annat vad gäller datamodellering, återanvändning av metadata, den semantiska teknikens utveckling, med mera.

Ett intressant exempel visades från British Librarys case study ”Mapping the Maps” där tiotals tusen kartor extraherades från böcker, bland annat med hjälp av Europeanas Glam Wiki Uploader, vilket skapar nya möjligheter till interaktion med samlingar. Ben O’Steen berättade om British Library Labs, där forskare och utvecklare kan använda det digitala materialet.

Runar Bergheim presenterade europeiska projektet LoCloud, som håller på att utveckla tjänster som kan användas av kulturarvsinstitutioner, som exempelvis ”HPN Microservice for historical place names”. Runar påpekade att en viktig utgångspunkt i arbetet har varit att berikning av information borde ske så nära källdata som möjligt.

Chris Welty, Google Research
Chris Welty, Google Research

Chris Welty från Google Research berättade om paradigmskiftet med s k ”cognitive computing” och framtida utmaningar. Han pekade på vikten av kvalitativ data och hur det exempelvis inverkar på att få relevanta resultat genom flerspråkiga sökningar. Chris poängterade också betydelsen av att publicera data och att den innovativa utvecklingen också innebär att acceptera att allting inte blir helt perfekt från början, ”you have to fail to find that golden nugget”.

Många av de applikationer och verktyg som utvecklats inom ramen för Europeana görs också tillgängliga via Europeana Labs.

Metadatakvalitet var en återkommande tema under konferensen och en av sessionerna handlade specifikt om det. Där presenterades bland annat British Museums arbete med CIDOC CRM av Dominic Oldman. Dominic berättade om möjligheterna det ger då metadata publiceras på ett länkbart och kvalitativt sätt direkt efter att den har skapats. De europeiska projekten Europeana Fashion och CARARE visade på vilka behov som finns vad gäller specifika metadatabeskrivningar för modematerial respektive arkeologi och kulturmiljö.

Seb Chan from Cooper Hewitt, Smithsonian Design Museum berättade om arbetet med deras digitala samlingar där en stor del består av tryck, vilket innebär att det i många fall inte finns så mycket metadata om objekten, därför arbetar man mycket med samlingar som länkar till varandra och gränssnitt som drar uppmärksamheten till detaljer (t ex sökningar genom en viss färgnyans).

Sanja Halling

Beständiga identifierare – Vi reder ut begreppet

b2ap3_thumbnail_serialnr.jpg

 

b2ap3_thumbnail_serialnr.jpg
Foto: Brian Hefele CC BY-NC

Beständiga identifierare talas det mycket om idag inom digitalt kulturarv, men vad är dessa identifierare egentligen och vad innebär det att använda sig av dem?

Beständiga identifierare (persistent identifiers/PID) är unika kodsträngar kopplade till olika digitala objekt/poster. De är en förutsättning för att man ska kunna skapa länkar  mellan olika objekt/poster i ett nätverk. Beständiga identifierare kan hänvisa till all information om ett objekt – digitala bilder, museisamlingen som det är en del av, dokument som hänvisar till det, med mera.

Det finns olika system som kan användas för att hantera beständiga identifierare. Funktionskrav på system för beständiga identifierare brukar vara att de är tekniskt tillförlitliga (t ex registret över identifierare bör uppdateras automatiskt)., auktoritativa (en trovärdig organisation hanterar systemet), flexibla i sättet att presentera metadata och interoperabla (t ex systemet tillämpar öppna standarder). Digital Preservation Europe (DPE) rekommenderar att man utöver detta också ställer krav på att identifierarna ska vara globalt unika, beständiga och ha en uppslagstjänst (resolution service) med programmerade regler som dirigerar webbläsaren till en aktuell kopia av objektet. Kungliga biblioteket har exempelvis en sådan tjänst. EU Kommissionen har för en tid sedan publicerat rekommendationer för utformning av URI:er i ”Study on persistent URIs, with identification of best practices and recommendations on the topic for the MSs and the EC”.

Vill du veta mer?

Utforska gärna det utbildningsmaterial som har tagits fram inom Linked Heritage-projektet där man bland annat visualiserar funktionskraven genom Botticellis målning ”Venus födelse”. Projektet har även jämfört kraven på beständiga identifierare mellan den privata sektorn och kulturarvssektorn och publicerat en ”State of the art report on persistent identifier standards and management tools”

Beständiga identifierare kan appliceras på både objekt och mer abstrakta begrepp, vilket öppnar stora möjligheter inom länkade öppna data för att öka sökbarheten och användningen.

Sanja Halling

FärdigDISKAt för denna gång

b2ap3_thumbnail_sistadisken.jpg

Strax före jul avslutade vi projektet DISKA (digitala semantiska kulturarvsauktoriteter) som vi under 2013 drivit i samarbete med KTH/ECE-skolan och med generöst stöd från Vinnova.
Tanken med projektet var att inventera listor/förteckningar av referenskaraktär på de centrala kulturarvsmyndigheterna, omarbeta ett strategiskt urval sådana ”dataset” till RDF och publicera dem som länkbar öppen data.

Allt detta har vi också gjort. Helena Lundin gjorde ett fantastiskt jobb med inventeringen i våras. Hon besökte personligen tjugo myndigheter, intervjuade en rad nyckelpersoner och hittade inte mindre än 122 stycken intressanta listor/förteckningar. Men materialen var av mycket skiftande innehåll, omfång, karaktär och struktur – så det var tur att vi hade en kvalificerad expertgrupp till stöd i prioriteringen. Med deras stöd kunde projektet avgränsa fokus till egennamn på historiska personer och ge företräde åt välstrukturerade dataset med högt allmänintresse. Som ett komplement har projektet vidare ”digitaliserat” en rent analog källa, ett kartotek över missdådare i KB:s skillingtryckssamling, som skrivits över till strukturerad Excel och därmed också kan ingå i DISKA-publiceringen.

Erik Isaksson och Fredrik Enoksson på KTH har sedan gjort enastående insatser genom att processa ett tiotal valda dataset och göra dem fritt tillgängliga för alla. Datat kom in i olika tekniska format (Excel, CSV, xml etc) och kan nu presenteras som RDF, se diska.ece.kth.se, och bidra till en framväxande infrastruktur för nyttiggörande och bred användning av öppen digital kulturarvsinformation.

 

b2ap3_thumbnail_sistadisken.jpg

’Confessions’. Collection of National Media Museum/The Royal Photographic Society. CC-0

En fortfarande öppen fråga, som Digisam kommer att arbeta för att lösa, är var datat mer långsiktigt ska förvaltas. Idealt skulle respektive myndighet kunna hålla det öppet via sin egen webbsida, men tills vidare är vi hänvisade till statisk förvaring på KTH eller – om respektive myndighet föredrar det – mer dynamiska lösningar inom Kultur-IT:s KulturNav, Linked Heritage/AthenaPlus-projektens TMP (terminology management platform) eller liknande. 

Projektet har bidragit till att fördjupa redan inlett samarbete mellan KTH och kulturarvssektorn. Det har spritt vidare kännedom i sektorn om vad LOD är, varför det är viktigt för kulturarvet och vad som krävs för att ta del i arbetet. För att ytterligare stärka frågan och bredda diskussionen vill vi också bjuda in alla intresserade till ett öppet seminarium på KTH tisdagen den 11 februari. Sätt kryss i almanackan redan nu, mer detaljerat program kommer. Hoppas vi ses då!

UPPDATERING 3 feb: Programmet för seminariet är nu klart! (Word-fil)

Johanna Berg, Digisam