PubMan Best Practice Workshop 2012 05 08

PubMan_Community,MPDL

Veranstaltungsort/-zeit

 * MPDL, München
 * 08. Mai 2012
 * Beginn: 11:00 Uhr
 * Ende: 17:00 Uhr
 * Pausen:
 * Mittagspause: 12:30 - 13:30 Uhr
 * Kaffeepause: 15:00 - 15:30 Uhr

Teilnehmer

 * Andrea Wuchner, MPDL
 * Martin Boosen, MPDL
 * Juliane Müller, MPDL

Anmeldungen


 * Karin Kastens, MPI Psycholinguistik


 * Uta Siebeky, FHI
 * Cora Molloy, MPI für Gesellschaftsforschung
 * Sabine Schmotz, MPI für für Immaterialgüter- und Wettbewerbsrecht
 * Carola Kauhs, MPI für Meteorologie
 * Nadine Schröder, MPI MMG
 * Gisela Lausberg, MPI für evolutionäre Anthropologie
 * Dorothea Schlotter, MPI MMG
 * Heinrich Kannstein, MPI für Molekulare Pflanzenphysiologie
 * Ursula Roß-Stitt, MPI für Molekulare Pflanzenphysiologie
 * Anja Lehmann, AEI
 * Ingrid Holzinger, MPIs Martinsried
 * Juliane Pohl, MPIs Martinsried
 * Linda Maack, MPI BGC
 * Diana Mewes; MPI ICE
 * Karin Fröschl, MPI für Quantenoptik
 * Andrea Piepkorn, MPI biophysikalische Chemie
 * Christiane Hardt, MPIs Garching
 * Elisabeth Chmielewski, MPIs Garching

Browser / Browserprobleme

 * Unterstützung der gängigen Browser (Firefox, IE, Google Chrome, Safari für Mac); empfohlen wird die Nutzung von Firefox
 * wir können nur eine bestimmte Bandbreite an Browser-Versionen unterstützen
 * Browserbedingte Schwierigkeiten bitte an den Support melden
 * Vorsicht beim Arbeiten in mehreren Tabs -> IDs und Versionen von Datensätzen geraten durcheinander; zwei Datensätze werden zu einem verbunden
 * Best Practice Empfehlung, falls das passiert ist: Bestehenden Datensatz als Vorlage benutzen und einen neuen Datensatz zu dieser Publikation anlegen; danach bestehenden Datensatz auf passende Version zurücksetzen, um den zweiten verlorenen Datensatz zurückzubekommen

Zurück-Button

 * um auf vorherige Seiten zurück zu gelangen sollte die Breadcrum genutzt werden

Session/File Time Outs

 * die Time Out-Zeiten von 2 Stunden für Sessions und hochzuladene Dateien ist zu beachten

Contexte

 * administrative Trennung der eingegebenen Publikationen nach verschiedenen Kriterien, z.B.:
 * Workflows
 * Validierungsschemata
 * Genres
 * kontrolliertem Vokabular
 * interne/externe Publikationen
 * ... etc.
 * die Trennung der Contexte wird für den uneingeloggten Nutzer nicht ersichtlich
 * prinzipiell hat jedes Institut mindestens zwei Contexte: Migrations-Context (von eDoc importierte Datensätze) + Publikations-Context (laufende Eingaben nach Migration)

Nutzung von mehreren Contexten im Nachhinein

 * Umzug der bereits angelegten Daten in einen neuen Context ist nicht machbar
 * Best Practice-Empfehlung: Datensatz als Vorlage nutzen und im neuen Context erneut anlegen; anschließend Zurückziehen des originären Datensatzes

Genres und Untergenres

 * Empfehlung: Kennzeichnung von speziellen (Unter-)Genres; wie z.B. Review als Journal Übersichtsartikel, durch Local Tags oder kontrolliertes Vokabular
 * Implementierung neuer Genres ist kompliziert und umfangreich; ein instituts-spezifisches Vokabular geht einfacher

Versionierung

 * Navigation in Versionen via URL möglich
 * Möglichkeit einen Datensatz auf vorherige Versionen zurückzusetzen

Erfassung von Publikationen von CoNE-Autoren vor MPG-Zeit

 * entweder die externe Affiliation im CoNE Profil aufnehmen oder in der Publikation "Extern" als Affiliation angeben

Empfehlung zur Umbennungen von OUs

 * wenn inhaltlich keine Änderung des Arbeitsbereiches der OU stattfindet, sollte einfach nur der Name der OU geändert werden (ID bleibt gleich)
 * wenn inhaltlich eine Neuausrichtung stattfindet, sollte eine Nachfolge-OU angelegt werden (neue OU)
 * in beiden Fällen müssen die CoNE-Profile der betreffenden Autoren angepasst werden

Erfassung von eingereichten Papern

 * Möglichkeit diese einzugeben, aber noch nicht freizugeben, wenn nicht gewünscht
 * sobald das Paper angenommen wurde, kann der Datensatz freigegeben werden
 * bislang ist eine Suche nach Datensätzen im Status "pending" nicht möglich; die entsprechenden Datensätze können jedoch durch Filtern und Sortieren im QA Workspace gefunden werden

Eingaben in CoNE

 * Dublettencheck berücksichtigen!
 * IDs der OUs nicht vergessen
 * auf absolut korrekte Schreibweise achten
 * keine unbeabsichtigten Leerzeichen setzen
 * Eingabe von CoNE-Autoren während Submission mit Namen der OU im Autosuggest-Feld -> kürzere Auswahlliste
 * Liste aller CoNE-Autoren eines Instituts via CoNE Query: pubman.mpdl.mpg.de/cone/persons/query?format=html&q="*[Name des Instituts]*"&n=0
 * Anstatt "html" kann auch "jquery" als Format eingetragen werden. Letzteres ist leichter in Textform zu übertragen und listet auch die IDs der CoNE-Einträge.
 * Eingabe neuer Zeitschriften am Besten mit ISSN als ID (ID ist Pflichtfeld)
 * Um einen neuen CoNE-Eintrag in der Autosuggest-Liste angezeigt zu bekommen, ist ein Reload der Seite notwendig.

Submission

 * Information über die Verbindung von zwei Datensätzen durch eine Revision ist im XML gespeichert -> CMS kann diese verarbeiten und die Verbindung zwischen den beiden Datensätzen kann entsprechend auf Webseiten verdeutlicht werden
 * Vorsicht: Revision ist nicht Version!
 * Revision als intelektuelle Überarbeitung einer Publikation (z.B. Preprint -> Postprint)
 * Versionen werden autmatisch generiert sobald Metadaten verändert oder ergänzt werden
 * Kommentarfeld bei Freigabe: Nutzung, um Informationen zur jeweiligen Version zu hinterlegen oder um Informationen für den Moderator zu hinterlassen
 * Nützliche und sehr umfangreiche Windows-Applikation zur Eingabe von Sonderzeichen: Charmap
 * Start klicken -> das Feld "Ausführen" öffnen -> "charmap" eintragen und Eingabetaste drücken
 * Nutzung von Local Tags (quasi als "Abrufzeichen") zum Filtern der eingegebenen Publikationen nach bestimmten Kriterien -> hilfreiche Unterstützung bei der Erstellung von speziellen Berichten
 * Ersetzen von Einträgen mit Autosuggest durch Hinzufügen eines neuen Feldes und anschließendem Löschen des vorherigen Feldes

Suche

 * Maximum-Abfrage von 5000 Datensätzen via REST -> Abfrage über 5000 Datensätze entsprechend anpassen:
 * Beispiel-Abfrage ab dem 5001. Datensatz:pubman.mpdl.mpg.de:8080/search/SearchAndExport?cqlQuery=( ( escidoc.objecttype="item" ) and ( ( escidoc.context.objid="escidoc:582610" ) ) ) and ( escidoc.content-model.objid="escidoc:persistent4" ) &exportFormat=EDOC_Export&startRecord=5001
 * Beispiel-Abfrage ab dem 10001. Datensatz: pubman.mpdl.mpg.de:8080/search/SearchAndExport?cqlQuery=( ( escidoc.objecttype="item" ) and ( ( escidoc.context.objid="escidoc:582610" ) ) ) and ( escidoc.content-model.objid="escidoc:persistent4" ) &exportFormat=EDOC_Export&startRecord=10001
 * usw.
 * Empfehlung, solange es keine administrative Suche gibt: Baskets + Filter + Sortieren
 * Bookmarken von Suchen erleichtert die Arbeit
 * Suche von nicht-freigegeben Datensätzen via URL (bei Bekanntheit des eSciDoc ID)
 * Ersetzen von Einträgen mit Autosuggest durch Hinzufügen eines neuen Feldes und anschließendem Löschen des vorherigen Feldes
 * Vorsicht bei der Suche nach Thesis + Art des Abschlusses sowie weiteren Genres -> weitere Genres werden nicht gefunden, da sie fälschlicherweise auch mit der Suche nach der Art des Abschlusses verknüpft werden; dafür gibt es logischerweise dann keine Ergebnisse

Export

 * zweite Quelle nicht im APA Zitierstil enthalten
 * mögliches Workaraound: alle Informationen in erster Quelle hinterlegen (Verunreinigung der Metadaten) oder im EndNote-Format exportieren und via EndNote die Publikationsliste erzeugen

Massenimport

 * "Dublettencheck" & "Bei Fehler zurücksetzen" nicht aktivieren beim Starten eines Imports
 * Voricht bei Batch-Optionen im Import Workspace!
 * "Entfernen" bedeutet die Informationen zum Import aus dem Workspace zu entfernen. Die Datensätze werden dabei nicht entfernt. Allerdings ist auch keine Batch-Freigabe der bestehenden Datensätze mehr möglich. Diese Funktionalität soll vorallem dabei unterstützen, dass der Import Workspace nicht zu unübersichtlich wird, so dass alte Import-Informationen nach und nach entfernt werden können und die Liste der getätigten Importe nicht zu lang und unübersichtlich wird.
 * "Löschen" bedeutet, dass alle Datensätze des Imports gelöscht werden. Dies ist nur möglich, wenn die Datensätze sich noch im Zustand "pending" befinden.
 * "Freigeben" bedeutet die Freigabe aller Datensätze eines Imports auf einmal (im Batch-Verfahren).
 * Unter "Details" kann man sich die jeweiligen Informationen zum laufenden Import anschauen und eventuelle Fehler analysieren.

Weiterer Best Practice Workshop

 * Austausch ist sehr hilfreich; regelmäßige Best Practice Workshops sind gewünscht
 * nächster Workshop: im Rahmen der PubMan Days am 19. September in der MPDL in München