Page tree
Skip to end of metadata
Go to start of metadata

lobid (hbz)

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

lobid-resources, in der Version 2.0 im Aufbau unter http://lobid.org/resources/ (elasticsearch und Play Framework)
UI (im Aufbau): http://alpha.lobid.org/resources
Beispielressource: http://alpha.lobid.org/resources/HT011159372 , http://lobid.org/resources/HT011159372?format=json (JSON-LD)

Welche Datenquellen sind indexiert?

hbz-Verbunddatenbank (hbz01)

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Metafacture: https://github.com/hbz/metafacture-core

UB Paderborn

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

Eigenentwicklung: elasticsearch als Backend für lokale Daten, Ruby und RubyOnRails für Frontend. Zudem ist Primo Central über API als zweiter "Reiter" integriert.

https://github.com/ubpb/katalog_ubpb

Welche Datenquellen sind indexiert?

Aleph lokal

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Eigenentwicklung: ETL Framework metacrunchhttps://github.com/ubpb/metacrunchhttps://github.com/ubpb/metacrunch-mab2https://github.com/ubpb/metacrunch-elasticsearchhttps://github.com/ubpb/metacrunch-ubpb

ULB Bonn

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

Wir nutzen den Index Summon von SerialsSolutions, angebunden per API an das Open-Source Frontend vuFind (aktuell von uns eingesetzt Version 2.0 mit punktuellen Erweiterungen, n Entwicklung ist der Umstieg auf die vuFind-Version 3.x). Das Frontend ist umfassend per SLNP/XSLNP mit dem SISIS-Bibliothekssystem verknüpft.

Welche Datenquellen sind indexiert?

lokal: SISIS-Daten (inkl. Normdaten-Verweisungsformen und s. 3.)
perspektivisch: Daten der Publikationsplattform (im Aufbau)

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Die Einspielung unserer Lokaldaten in den Summon-Index läuft, vereinfacht ausgedrückt, folgendermaßen ab:

  • Entladen der Daten im SISIS Standard-Format (Ausgabe in SISIS-Kategorien, angereichert mit Normdaten) per ENTLMASS
  • Aufbereitung der Daten zunächst mit dem Perl-Script des bayrischen Verbundes welches früher zur Einspielung in den Fast-OPAC verwendet wurde
  • Weitere Aufbereitung der Daten in einem eigens entwickelten PHP Post-Processing Script, welches unter anderem eine Zuordnung in die vom Index vorgegebenen Materialarten und Fächern vornimmt, zusätzliches aber auch beispielsweise unsere Links in Inhaltsverzeichnisse/Volltexte kategorisiert, Einzelbände mit Informationen der Überordnungen anreichert, bestimmte Titel ausfiltert, sicherstellt das alle Pflichtfelder gefüllt sind uvm.
  • Abschließende Umwandlung der aufbereiteten Daten in ein XML-Format welches mit dem Indexanbieter für die Einspielung vereinbart wurde.
  • Upload der Daten per FTP an den Indexanbieter. Aktuell senden wir unsere Daten (bzw. die Änderungen eines Tages,Daten-Delta) einmal pro Tag.
  • In Entwicklung befindet sich ein Script welches auf Basis der von SISIS per ENTLMASS entladenen Daten alle weiteren Schritte bis zum FTP-Upload zusammenfasst, ebenfalls verfasst in PHP. Hier werden zusätzlich noch die Inhaltsverzeichnisse ausgelesen und angehangen.

Hochschulbibliothek Bonn-Rhein-Sieg

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

Bibliothekarisches Suchsystem mit VuFind Version 3.1: "Einreiter-Lösung" mit Daten vom Indexanbieter EBSCO.
Anbindung des lokalen, integrierten Bibliothekssystem (SISIS) an Suchsystem mit XSLNP Version 4.4.

Welche Datenquellen sind indexiert?

HuKB BRS lokale Titeldaten bei EBSCO indexiert.
Entwicklung für Export der Normdaten in Realisierung.
Unsere Core-Produkte unten stehend

ACM ACS Journals AIP AIS electronic library Beck online BioMed Central Business Source Complete complianceDigital ESV Verlag De Gruyter Verlag Future Medicine Hogrefe Verlag IEEE-Xplore Informs Journals Journal Citation Reports Juris Standard Mary Ann Liebert Publisher Munzinger Online Nexis (früher: LexisNexis) OECD iLibrary Ovid Journals Oxford Journals Palgrave Journals PBSC Perinorm-DIN und VDI Normen Perinorm-VDE Normen PsycArticles PsycInfo PsyJournals Römpp online RSC Journals Safari books online Sage ScienceDirect - Elsevier Verlag SciFinder Scholar Springer E-Zeitschriften und Ebooks Statista Taylor and Francis Journals (einzelne Titel) video2brain Web of Science Wiley online library WTI - Frankfurt (vormals FIZ Technik) WISO (GBI) ZBMath

Im EDS sind derzeit alle diese Produkte indexiert außer Beck online, complianceDigital ESV Verlag, Hogrefe Verlag, Juris Standard, Munzinger Online, Perinorm, VDE-Normen, PsyJournals, Römpp Online, Statista, Video2brain, WTI, ZBMath

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Export der Titeldaten mit ENTLMASS - Import bei EBSCO via FTP.
Eigenentwicklung in Java (+SLNP) für Export der Titel- und Normdaten und Konvertierung in MARC-XML

UB Dortmund

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

"Einreiter-Lösung": Summon als Index via API + Eigenentwicklung (Java + XSLT) für das Frontend

Integrierte Services:

  • Kontoinformation via PAIA (Anbindung an SunRise mit XSLNP)
  • Verfügbarkeit via DAIA (Anbindung an SunRise mit XSLNP, an ZDB/EZBmit Journals Online & Print, an Linkresolver 360 Link mittels zugehöriger API)
  • Vormerkung/Bestellung von (SunRise-)Medien via PAIA (Anbindung an SunRise mit XSLNP)
  • Direktlinks zur Fernleihe

Welche Datenquellen sind indexiert?

lokaler Katalog (SunRise) indexiert in Summon
in Arbeit:

  • Daten des Repositorium
  • Fremddatenpakete anstatt via SunRise direkt nach Summon

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

  • SunRise: Ähnliches Verfahren wie in Bonn, allerdings weitestgehend auf Java-Basis
  • kleinere Skripte für den Import in SunRise ("historisch gewachsen")
  • im Aufbau: d:swarm

Universitätsbibliothek der RWTH Aachen University

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

OCLC TouchPoint mit verschiedenen Solr-Indizes als Basis, Bestellfunktionen & Kontoinformation via NCIP (auch genutzt für RWTH App)

Welche Datenquellen sind indexiert?

Aktuell

  • Lokaler Katalog (SISIS Sunrise) mit eigenen Anpassungen in der Indexierung
  • Ausgewählte Daten von DawsonEra (Patron Driven Acquisition)
  • Index der (Allegro-)Bestände der Institutsbibliotheken (in Aufbau: nicht-selbständige Werke aus diesen Katalogen)

In Vorbereitung

  • Veröffentlichungsdatenbank "RWTH Publications" (inkl. Volltextrepositorium und Forschungsdaten), Indexierungspipeline steht, noch nicht live
  • Unabhängiger Artikelindex aus dem finc Projekt

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

  • OCLC-Indexierungspipeline u.a. Jerome (XSLT/Java-basiert) zur Indexierung von MARCXML
  • RWTH Publications: Catmandu (OAI-Harvesting), MongoDB und selbstentwickelter Java-Code
  • DawsonEra: Python-Skripte zur Umwandlung von US MARC FTP-Datenlieferung (RWTH Profil) von DawsonEra nach MARCXML, ISBN-Abgleich (parallele Druckausgabe) via Lobid und im Trefferfall Anreicherung der Autoreninformation (GND)
  • finc: Siehe Berichte/Dokumentation, AMSL, OntoWiki

ZB MED

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

LIVIVO mit SOLR-Suchindex und javascript Frontend

Welche Datenquellen sind indexiert?

ca. 50 Datenbanken, siehe: https://www.livivo.de/app/misc/help/sources

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Vorrangig eigene Realsierungen (Perl)

UB Siegen

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

noch keine, ab ca. April IntrOX mit EDS

Welche Datenquellen sind indexiert?

vorerst nur lokaler Katalog (Aleph) und ggf. OPUS

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Dienstleistung des HBZ

TH Köln

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

Digibib IntroX mit EDS, Anbindung des lokalen, integrierten Bibliothekssystem (SISIS) an Suchsystem mit XSLNP Version 4.4

Welche Datenquellen sind indexiert?

  • Verbundtiteldaten der TH Köln mit Anreicherung aus dem lokalen Katalog Sisis SunRise
  • über die EDS-API die über EDS indexierten integrierten Quellen

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Dienstleistung des HBZ

USB Köln

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

Suchportal auf Basis der Software IPS, welches Zugriff auf verschiedene Ressourcen bietet:

  • lokaler Suchmaschinenindex (KUG-Suchinfrastruktur auf Basis von Xapian plus OpenBib: https://github.com/oflimm/openbib)
  • EBSCO Discovery Service (EDS)
  • Kölner Kataloge (Metasuche)
  • Verbundkataloge (Metasuche) inkl. Fernleihe
  • ...

Welche Datenquellen sind indexiert?

Lokaler Suchmaschinenindex: 17 Mio. Dokumente aus 200 Quellen

  • USB-Katalog
  • 150 Institutskataloge
  • Nationallizenzen plus freie E-Books
  • Open Access Repositorien
  • PDA-Kollektionen von drei Anbietern
  • Bestelldaten von verschiedenen Lieferanten
  • ...

Liste der Datenquellen siehe: https://search.ub.uni-koeln.de/portal/uni/databases.json?l=de

EBSCO Discovery Search (für die Suche nach Aufsätzen)

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

OpenBib, siehe: https://github.com/oflimm/openbib

ZBSPort

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

SportPilot bzw VifaSporthttp://www.vifasport.de/cgi-bin/vifasport.pl
z.Zt. Lucene, Umstieg auf VuFind geplant.

Welche Datenquellen sind indexiert?

Die ViFa Sport enthält heute i(24.1., 15:00) nsgesamt 2.289.110 Datensätze.

Current Contents Sport
Zur Zeit enthält die ViFa Sport 97.663 Zeitschriftenartikeldaten aus online erhältlichen Zeitschriften. Sie decken den Zeitraum von 1977 bis 2013 ab.

Datenbank Focus on
Aus der Datenbank 'Focus On Sports Medicine' (ISSN 1069-7004) sind 279.394 Zeitschriftenartikeldaten enthalten. Sie decken den Zeitraum von 1991 bis 2010 ab.

Datenbank Spolit
Von den Sätzen der Datenbank SPOLIT des BISp sind die bibliographischen Daten der Zeitschriftenartikel und Sammelwerksbeiträge in der ViFa Sport enthalten. Insgesamt enthält Spolit 203.969 Sätze aus dem Zeitraum 1880 bis 2014.

Datenbank Sponet
Aus der Datenbank SPONET des IAT sind 39.374 Datensätze enthalten. Sie decken die Jahre 1963 bis o.J. ab.

Datenbank Spowis
Aus der Datenbank SPOWIS des IAT sind alle 119.284 Datensätze enthalten. Spowis deckt die Jahre 1927 bis 1996 ab.

Datenbank TUPL
Aus der Datenbank TUPL - Theorie und Praxis des Leistungssports des IAT sind 3.350 Datensätze mit Links zu den Volltexten enthalten. TUPL deckt den Zeitraum 1963 bis 1990 ab.

Friedrich Ebert Stiftung
Auf die 2.947 Online-Volltexte zum Arbeitersport der Bibliothek der Friedrich Ebert Stiftung der Jahre 1993 bis 2009 wird in der ViFa Sport verlinkt.

Katalog der ZBSport
Die 249.997 Datensätze des Katalogs der ZBSport sind vollständig in der ViFa Sport enthalten. Abgedeckt wird der Zeitraum von 1478 bis 2016.

Linksammlung der ZBSport
13.701 Links aus der Sammlung der ZBSport sind enthalten.

Sport Biographien von Munzinger
In der ViFa Sport wird z.Zt. auf 12.230 Biographien von Munzinger verwiesen. Für Institutionen, die Munzinger lizensiert haben, führt eine Suche in der ViFa Sport direkt zur Biographie (z.B. Suche nach Pierre Littbarski).

Sport-Informations-Dienst (sid)
Die 1.239.139 Meldungen des Sport-Informations-Dienstes, vom 01.01.2000 bis zum 23.11.2014 sind vollständig in der ViFa Sport enthalten.
Diese Meldungen sind vom Campus der Sporthochschule aus zugänglich.

Pressemeldungen der Deutschen Sporthochschule Köln
Die 26.390 Pressemeldungen der Deutschen Sporthochschule Köln sind in der ViFa Sport zugänglich.

Sport Film
Die ViFa Sport verweist auf 436 Sportfilme von sportwissenschaften.info der Jahre 1915 bis 2013.

Sportzitate
Die ViFa Sport enthält 600 Zitate zum Sport.

Webauftritt der ZBSport
Die 636 HTML-Seiten des Webauftritts der ZBSport sind in der ViFa Sport enthalten.

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Eigene Skripte

UB Bielefeld

Welche Discovery-Lösung bietet Ihre Institution an und auf welche Software basiert die Lösung?

Drei-Reiter-Lösung mit EDS als kommerz. Discovery-Lösung und den Daten für lokalen Bestand
(Bibliothekskatalog) und Web-Dokumente (BASE)

Welche Datenquellen sind indexiert?

Katalog-Daten (lokal)
EDS (via API )
BASE (via API auf lokalen BASE-Index)

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Für den Katalog eine Prozessstrruktur aus Katalogexport, MySQL-unterstützter Datenaufbereitung und
Lucene-Index, Frontend auf übernommener Heidi-LLösung der UB Heidelberg

EDS via erg. Sourcecode im Heidi-Umfeld zur API-Nutzung

BASE: Umfangreiche Harvesting-Umgebung für jetzt ca. 200 Mill. Metadaten von ca. 7000
Quellen (überwiegend Repositories), , davon sind aktuell 105 Mill. via Lucene Solr indexiert und per VuFind bereitgestellt.

Erste Crossref-Quellen mit OA-Anteilen (Elsevier!) sind ergänzt

90 % der Crossref-Daten liegen ebenfalls in einer abgeleiteten Harvesting-Umgebung
bereit und wir überlegen die Nutzung (als vierter Reiter?) über eine vorliegende Librecat-Datenbank
(Index-Framework der UBs Gent, Lund, Bielefeld, Göttingen)

In allen Bereichen werden ergänzende Skripte verwendet (überwiegend Perl, vereinzelt XSLT, Python und Java)

UB Wuppertal

Welche Discovery-Lösung bietet Ihre Institution an und auf welche

Software basiert die Lösung?
IntrOX= Katalog + EDS-Index von EBSCO, eingebunden in die Oberfläche der DigiBib

Welche Datenquellen sind indexiert?

Aleph lokal

Welche Software benutzen Sie zur Datenaufbereitung? (ETL-Software, Scripting etc.)

Dienstleistung des HBZ