Mies, mieser, ganz schlecht: Die Session auf dem Barcamp
gepostet von Johan am
[Wie unten deutlich wird, die Session war klasse, das Thema waren aber miese Seiten]
Auf dem Barcamp Kiel hab ich eine Session unter dem Titel „automatisierte Qualitätsanalyse für Websites“ gehalten.
Irgendwie müssen mir bei der Sessionplanung die Worte „mies“, „CDU“ und „Internet“ rausgerutscht sein, so dass wirklich einige gekommen sind. In welcher Reihenfolge ich die Begriffe verwendet hab, weiß ich nicht mehr. 😉
Artikelvorstellung und technische Verbesserungsvorschläge
Ich hab kurz meinen Artikel zur Qualität von CDU Internetseiten und meine Quick&Dirty-Analyse vorgestellt. Es gab ein paar schöne Hinweise auf Quellen für weitere Usability-Tests, die man sich mal ansehen sollte. Die Biene-Award Prüfschritte wurden noch mal angeregt und „Bobby“ (klingt jetzt nicht so, als ob das für mich in Frage kommt…) für automatisierte Accessibility-Tests vorgeschlagen. Außerdem sollte ich noch mal auf Seitwert schauen (Die hatte ich eigentlich als zu viel Schlussfolgerung und zu wenig Ursache abgespeichert.). Insgesamt kamen alle Anwesenden zu dem Schluss, dass so eine automatisierte Analyse nur der Ausgangspunkt für eine händische Analyse sein kann. Denn Kernfragen von Usability, etc. lassen sich nur mit dem Kopf und nicht mit nem Tool beantworten. Schließlich kann an der ein oder anderen Stelle in einem bestimmten Umfeld ein Wert, den man für schlecht halten würde plötzlich Sinn machen.
Insgesamt spannender, etwas abstrakter Input. Ich werde da noch mal sortieren. Wichtig fand ich auch den Hinweis, dass bei der Analyse teilweise zu sehr zwischen Dingen gemixt wird, die der Nutzer gar nicht sehen kann und Dingen, die der Nutzer direkt mitbekommt (Ladezeit vs. Überschriftenlogik).
Ursachen für miese Websites
Die Diskussion entwickelte sich dann sehr schnell weiter und wurde so eifrig geführt, dass es ein wenig Gewalt brauchte die Session zu beenden. Ein gutes Zeichen.
Haupt-Thema war allerdings nicht die Weiterentwicklung der Untersuchung, sondern die Ursachenforschung. Am Ende war man sich glaube ich in folgenden Punkten ziemlich einig:
- Das Problem ist bei allen Parteien das Gleiche
- Das Problem ist in kleinen Unternehmen das Gleiche
- Ursache für die „Abgründe des Internets“ sind:
- Agenturen mit Kostendruck, fehlendem Problembewusstsein und ohne normierten Qualitätsstandard
- Auftaggeber (Parteien, Organisationen, Unternehmen) ohne den blassesten Schimmer von der Materie / die Zeit zu kontrollieren und ohne Problembewusstsein wissen nicht, wie ein Ergebnis einer Agentur zu beurteilen ist
- Fehlende normierte Lastenhefte (gibt es sowas wirklich nicht?)
- Das Marktpotenzial für eine Agentur mit dem Schwerpunkt „Endabnahme von Internetseiten“ ist nicht zu unterschätzen
- Bei entsprechend plastischer Darstellung ist W3C-Konformität, etc. durchaus ein tolles Marketing-Instrument für Agenturen und hilft auch das Problembewusstsein beim Kunden zu schaffen, was an vielen Stellen enorm hilfreich wird…
Ich fand die Diskussion super. Es braucht mehr Standards in der Webentwicklung, die für Laien transparent sind und es braucht mehr Problembewusstsein für Auftraggeber.
Dank und Entschuldigung
Und wo wir gerade dabei sind: Ich möchte mich herzlich bei Swen Wacker [Facebook|Google+] und dem Landesblog entschuldigen, dass ich das Landesblog einfach frech und ohne zu fragen als Beispiel beim Zeigen der Tools genommen habe.
Beim Ursprungsartikel hatte ich irgendwie erst nicht gemerkt, dass die Kommentare ausgeschaltet waren. Hatte mich schon über die Vielzahl der Mails gewundert.