Old but not busted … – Dieser Inhalt wurde vor mehr als 8 Jahren publiziert. Die Korrektheit und Verfügbarkeit von Links können leider nicht gewährleistet werden.

…ist (für mich nun endlich) gelüftet!

Seit Beginn des B.A.-Studiums vor ca. drei vier Jahren spukte in regelmäßigen Abständen die Datenbank „INFODATA“ in meinem Alltag herum. – Das Problem daran war, dass der als „umfangreichste bibliographische Datenbank für die Informationswissenschaften“ (seitens der Lehrenden) angepriesene Service – und damit eines der Projekte im Fachbereich mit großer Außenwirkung – für mich nie erlebt werden konnte, da die Plattform „INFODATA-eDepot“ IMO ganz und gar nicht den versprochenen Eigenschaften entspricht. Spätestens bei der Literaturrecherche zu meiner Bacheleor-Arbeit beschloss ich dort nie wieder hinein zu schauen…

In der letzten Woche wurde nun erneut – im Master-Studiengang – die „INFODATA“ erwähnt und dieses Mal sogar mit phantastischen Aktualisierungszahlen (jährlicher Zuwachs ca. 1500 Einträge) für ihre Qualität gepriesen. Dies nahm ich dann zum Anlass meine bis dato existierende Bildungslücke zu schließen, indem ich einfach die Frage aufwarf, welche „INFODATA“ denn gemeint ist. Als Antwort erhielt ich „Na die INFODATA…“ – was mich im ersten Moment jedoch nicht wirklich weiter brachte.

Nach einige kleinen Diskussion und etwas Web-Recherche kam ich dann zu folgender Situation:

  • Sucht man einfach nur nach dem Begriff „infodata“ – was meiner Meinung nach ausreichen sollte, um ‚vernünftige‘ Treffer zu erhalten; bspw. mit DuckDuckGo oder Google – ist das Ranking von „INFODATA-eDepot“ (fast*) immer höher, als das der „INFODATA“.
  • Selbst bei einer Dämain-Einschränkung auf „fh-potsdam.de“ ändert sich bei der Google-Anfrage nichts. Bei der DDG-Anfrage hingegen taucht das erste mal die „INFODATA“ vor „INFODATA-eDepot“ auf.
  • Die – ich nenne sie mal platt so – Verschlagwortung für die Suchmaschinenindizes (also SEO) für die „INFODATA“ ist eher gruselig/sub-optimal. So sind IMO Phrasen wie „Schnupper-INFODATA“, „INFODATA bei der Gesellschaft für Betriebswirtschaftliche Information [GBI] (kostenpflichtig)“ und „INFODATA, FH Potsdam (eingeschränkter Zugang, nur Katalogdaten)“ nicht dazu angetan darzustellen, dass die „INFODATA“ solch eine tolle Datenbank ist.
  • Auch die URL „fabdax.fh-potsdam.de/infodata/“ trägt – im Gegensatz zu „www.infodata-edepot.de“ (auch wenn man hier das „www“ ruhig weglassen können sollte) – nicht unbedingt zu einer (sicher gewünschten) Griffigkeit bei.
  • Geht man davon aus, dass die FHP-Bibliothek eine erste Anlaufstelle bei der Literaturrecherche ist und weiterhin, dass die „INFODATA“ eine hauseigene Datenbank für „Fachinformationen“ ist, dann sollte sie wenigstens auf der entsprechenden Seite der Bibliothek gelistet sein.
  • Wenn man denn weiß, dass die „INFODATA“ (genau wie „INFODATA-eDepot“) vom IZ betreut wird, sollte die „INFODATA-eDepot“ nicht unbedingt so präsent auf der IZ-Homepage sein – rechts oben ein Link, links unten eine Schnellsuche und rechts auf der Startseite ein scraper für die aktuellsten Dokumente.
  • „INFODATA-eDepot“ hat – so weit ich das mit einer nicht erfolgreichen einfachen Suche in der „INFODATA“ nach dem in „INFODATA-eDepot“ existierenden Volltext „Business News in 3D“ probiert habe – nichts mit der „INFODATA“ zu tun, wie mind. ein Lehrender dachte. Es scheinen zwei unterschiedliche und unabhängige Datenbestände zu sein (– was mich bei der Frage nach der Vollständigkeit der „INFODATA“ nat. gleich mal zu weiteren Grübeleien bringt…).

Zusammenfassend: „INFODATA-eDepot“ ist nicht die „INFODATA“!
Die (zweisprachige bibliographische Literaturdatenbank) zum Thema „Informationswissenschaft“ – „INFODATA“ – ist unter http://fabdax.fh-potsdam.de/infodata/ erreichbar/zu finden und wird auf den IZ-Webseiten beschrieben.

Ob die „INFODATA“ nun wirklich die (angepriesene) hilfreiche Datenbank für die Informationswissenschaften ist habe ich nicht eruiert. Irgendwie schrecken mich – leider – zu viele Aspekte (einige davon sind bereits beschrieben worden) ab. Selbstverständlich helfen der Google-Suchschlitzt und ein paar Boolsche Operatoren bei einer richtigen Recherche nicht alleine weiter. Allerdings gibt es kognitive Prozesse und reine Wahrnehmungssystematiken, die das Verhalten von Suchenden beeinflussen. Das Credo „Wer sucht, die/der findet.“ trifft nur bedingt zu und sollte nicht für schlechtes SEO, keine Verlinkung – .oO(Wozu hat man denn Hypertexte erfunden…) –, verrückte Interfaces etc. herhalten (müssen). Ein guter Service (erst recht ein Recherchesystem!) muss einfach gefunden werden können, seinen genuinen Zweck so gut wie möglich erfüllen, funktional in der Benutzung sein und darf auch gut aussehen! Nicht/Schlecht nutzbare Datensilos sind IMHO von gestern und tragen – (auch und gerade) wenn sie als Prestige-Projekte angepriesen werden – zur „Internetaversion“ bei…

So, genug geschwafelt… – Ich für meinen Teil bin zumindest jetzt – nach ca. drei vier Jahren – mal froh zu wissen, was es mit der bis dato mysteriösen „INFODATA“ auf sich hat… 😉


* Eine Standard-MetaGer-Suchanfrage liefert eine ganz mysteriöse Trefferlist

Old but not busted … – Dieser Inhalt wurde vor mehr als 8 Jahren publiziert. Die Korrektheit und Verfügbarkeit von Links können leider nicht gewährleistet werden.

Nun, nachdem meine B.A.-Arbeit in „Sack und Tüten“ ist und nur noch die mündliche Verteidigung am kommenden Mittwoch aussteht, kann ich eig. schon jetzt von einem erfolgreichen Ende (dieses Studiums) sprechen. *jippi!* 🙂

Speziell in den letzten Tagen bzw. Wochen habe ich wieder viele Dinge gelernt und auch die letzten drei Jahre haben einige Erkenntnisse geliefert. Die präsentesten (und aktuell in meinem Kopf herum spukenden) davon will ich im Folgenden mal ganz kurz, ungeordnet & nicht vollständig aufschreiben…

Also:
Grafiken/Bilder/… in einer Arbeit, die am Ende auch ausgedruckt wird, sollte man nicht unbedingt mit einer hohen Kompression speichern, denn das sieht in der Print-Version echt blöd aus! (Auch wenn es nett ist, dass das PDF mit 70 Seiten, 25 farbigen Abbildungen und einem im Anhang eingebundenen einseitigen PDF nur knapp 3 MB groß ist…)

Ebenso sollte man sich die digitale Version der Arbeit vorab (zu Teilen) mal ausdrucken um zu schauen, ob die die eingebundenen Abbildungen in einem guten Größenverhältnis (zum Text und zur Seite) eingebunden sind. – Man hat nur eine recht ungenaue (wenn nicht sogar falsche) Vorstellung davon, wenn man sich nur das PDF vorab anschaut…

Wenn man die Arbeit mit/in (La)TeX schreibt und eine externe BibTeX-Datei für die Literatur und/oder eine externe Glossar-Datei einbindet, sollte man für das korrekte Setzen der Referenzen mehrere Kompilierdurchläufe benutzen. Ich habe es in Anlehnung an einen Tipp auf TeX-SE so gemacht:
pdflatex Masterdokument && bibtex Masterdokument && makeglossaries Masterdokument && pdflatex Masterdokument && pdflatex Masterdokument && evince Masterdokument.pdf

Sollte man eine Graustufenversion eines schönen bunten (und mit Links versehenen) PDF benötigen, empfehle ich die Konvertierung der farbigen Version mittels Ghostscript wie (schon 2008) bei handyfloss.net beschrieben.

Selbst definierte TeX-Makros – in meinem Fall fest stehende und mehrfach verwendete Strings (wie bspw. das Makro „\art“ für „Bachelor-Arbeit“) sollten bei der Benutzung im Dokument am Ende mit einem geschützen Leerzeichen versehen werden, denn sonst wird das Leerzeichen nämlich einfach vergessen/nicht berücksichtigt… – So wäre (eine mgl.) korrekte Verwendung:
blatext2 \art\ blatext2

Es ist (zwar recht arbeitsintensiv aber letztlich auch) enorm hilfreich und Freude bereitend, wenn man sich ein Thema aussucht, welches echt spannend ist!

Man sollte nicht zu viel Zeit für einen Abschluss benötigen, denn sonst kann es durchaus passieren, dass selbst die (soziale) Hans-Böckler-Stiftung die Förderung eines (direkt an den Bachelor-Abschluss anschließendes) Master-Studiums mit der Begründung „der zu langen Vorstudienzeit“ ablehnt. .oO(…)

Es ist nicht unbedingt notwendig, sich mit Lehrpersonal ab dem ersten Semester anzulegen… – Das kann nämlich dazu führen, dass man ganz klar an den Noten der belegten Module erkennen kann, wer diese Person ist. Und das ist dann dem Gesamtnotendurchschnitt (der in unserer „Leistungsgesellschaft“ ja nicht ganz unwichtig ist…) nicht wirklich zuträglich! (An allen Modulnoten auf meinem Datenkontrollblatt, die zwischen 2,7 und 4,0 liegen und somit die schlechtesten sind, ist immer eine Person beteiligt gewesen… *verrückt,oder!?*)

So viel dazu… – Grüßle! 🙂

Old but not busted … – Dieser Inhalt wurde vor mehr als 9 Jahren publiziert. Die Korrektheit und Verfügbarkeit von Links können leider nicht gewährleistet werden.

POLYKON – die Datenbank für Polymere als Konservierungs- & Restaurierungsmittel enthält strukturierte Informationen zur chemischen Einordnung, den Eigenschaften und der Verwendung zahlreicher Polymere, die in der Restaurierung eingesetzt wurden und werden. Sie haben die Möglichkeit mit Hilfe der Schnellsuche oder der erweiterten Suche nach Produkten, Polymertypen oder Anwendungsbeispielen zu recherchieren.

So steht es unter polykon.fh-potsdam.de geschrieben und ich bin sehr froh, dass wir es so (schön) geschafft haben! (Aus der v1.0 von heute wird aber bestimmt in den nächsten Tagen noch ne v1.5 oder so…)

Danke an Alle!

Ich werde dann jetzt mal mit der Dokumentation beginnen… *puhhh*

PS:
Der Code-‘Wahnsinn‘ gehört da hin… 😉

PPS:
Die URL www.polykon.fh-potsdam.de funktioniert nicht!

Old but not busted … – Dieser Inhalt wurde vor mehr als 9 Jahren publiziert. Die Korrektheit und Verfügbarkeit von Links können leider nicht gewährleistet werden.

…ich bin kein PHP-Programmierer, aber für meine B.A.-Arbeit mache ich es (mehr recht als schlecht) & bekomme dabei manchmal fast ne Kriese…

So zum Bsp. in den letzten beiden Tage. – Da wurde aus einer kleinen 40zeiligen Funktion (die die gewollten Grundfunktionalitäten liefert) ein kleines Monster mit 164 Zeilen… – Aber jetzt isses halt echt viel schöner & die Bedarfe Aller sind befriedigt… 😉

Außerdem noch schnell nen Link zu dem Projekt RIPS: http://rips-scanner.sourceforge.net.
Damit kann man offline PHP-Code auf Fehler & Schwachstellen prüfen lassen… – Sehr nett! (Aber bitt enicht nur darauf verlassen. ;))

*soundjetztgehtsinsbett-wink*

Old but not busted … – Dieser Inhalt wurde vor mehr als 9 Jahren publiziert. Die Korrektheit und Verfügbarkeit von Links können leider nicht gewährleistet werden.

An dieser Stelle soll es heute mal kurz um ein Problemchen und dessen ‚Lösung‘ gehen, welches mich gestern (fast) den ganzen Tag beschäftigt hat.

Ich hatte die Aufgabe zu lösen, mittels eines HTML-Formulars und PHP ein Bild (als BLOB) in einer MySQL-Datenbank abzulegen. – Eigentlich ja nicht allzu schwierig, denn Anleitungen & Code-Schnipsel dazu gibts im Netz wie „Sand am Meer“…

Am Ende entschied ich mich für die Variante, die hochgeladene Datei ohne file handler (fopen, fread, fclose) in die DB zu hexen. Denn man kann recht einfach mittels mittels der globalen PHP-Variable „$_FILES“ auf die (mittels POST) hochgeladene Datei zugreifen.

if (isset($_FILES[‘bild‘]) && is_uploaded_file($_FILES[‘bild‘][‘tmp_name‘]) && $_FILES[‘bild‘][’size‘] > 0) {
$mimetype = $_FILES[‘bild‘][‘type‘];
$blob = bin2hex(file_get_contents($_FILES[‘bild‘][‘tmp_name‘]));

Da ich beim Insert immer die Meldung bekam, dass ich einen Fehler in der SQL-Syntax habe, wenn ich für den BLOB mysql_real_escape_string(file_get_contents($_FILES['bild']['tmp_name'])) oder addslashes(file_get_contents($_FILES['bild']['tmp_name'])) (wie bspw. hier beschrieben) benutzt habe, habe ich letztlich die Funktion bin2hex() für das Speichern der binären Daten (des Bildes) in der MEDIUMBLOB-Spalte der DB verwendet.

Nach ein paar Test-Uploads stellte ich dann jedoch fest, dass größere Bilder nicht hochgeladen werden können – wg. der Begrenzung auf dem Server. Also habe ich etwas gesucht und die dafür zuständigen PHP-Einstellungen bzw. -Variablen gefunden. Diese spuckten mir allerdings aus, dass meine max. Upload-Größe 32MB beträgt, was bei einem Upload von einem ca. 1,5MB großen Bild jedoch nicht ’stimmte‘. Denn da kam dann dann die MySQL-Meldung „Got a packet bigger than ‚max_allowed_packet‘ bytes“ und der Datensatz wurde nicht in die DB geschrieben.

‚Gut, dass die MySQL-Meldung so aussagekräftig ist‘, dachte ich mir und suchte erneut nach einer Lösung… – Und siehe da, auch dazu gibt es Lösungen, wie bspw. diese. Ärgerlich war nur, dass ich den ganzen Tag der Meinung war, dass der MySQL-Parameter „max_allowed_packet“ dynamisch zur Laufzeit des Servers per PHP beeinflussbar ist. *gml*
Dies kam zum Beispiel auch daher, dass das Auslesen des Parameters (mit mysql_query("SHOW VARIABLES LIKE 'max_allowed_packet'")) und das Neusetzen des Wertes (mittels mysql_query("SET max_allowed_packet=16777216;")) zwar anstandslos funktionierte, aber leider den Upload nicht verbesserte. Trotz des neu gesetzten Wertes (auf 16MB), war die Uploadgrenze in Wirklichkeit immer noch beim Standardwert 1MB.

Lange Rede, kurze Erkenntnis:
Das Ändern des MySQL-Wertes „max_allowed_packet“ zur Laufzeit per PHP funktioniert (i.d.R.) nicht. (Man kann, wenn man MySQL-Root-Rechte mit seinem Login hat, versuchen, den globalen MySQL-Parameter zu verändern.)
Man muss/sollte/kann die Einstellung serverseitig vornehmen und entweder dauerhaft den Eintrag max_allowed_packet=16MB; in der my.cnf machen oder mit MySQL-Root-Rechten den Wert mittels SET max_allowed_packet=16777216; zur Laufzeit ändern (dann ist dieser bei einem Neustart allerdings wieder weg).

Außerdem ist anzumerken, dass die BLOBs in der DB irgendwie (ca.) doppelt so groß sind/werden, wie die Original-Dateien. – Aus einem Bild mit 991K wird bspw. (bei mir) ein BLOB mit 2.03MB. *strange&doof* (Bitte jetzt kein Bashing, ob es überhaupt sinnvoll ist, Bilder direkt in der DB zu speichern. – Es muss dieses Mal so sein!)