Artikel in Eltern


  • Neues Projekt „Vernetztes Ehrenamt“

    Am 23. Mai startet ein neues Projekt. Pilothaft wird WerdeDigital.at Ehrenamtliche, die mit Geflüchteten arbeiten in Videokonferenzform vernetzen. Zu den Themen, die diskutiert werden, gehören rechtliche Rahmenbedingungen, psychologische Aspekte, Unterstützungsmöglichkeiten bei Bildung und Weiterbildung sowie beim Erwerb der deutschen Sprache. Das Projekt wird aus Mitteln des Sozialministeriums gefördert.

  • logo WerdeDigital.at

    Offene Daten für ein besseres Österreich – Dossier 3, Beitrag #4

    Von Sonja Fischbauer, Robert Harm und Johann Höchtl

    Wissen ist ein ganz besonderer Rohstoff: Wissen vermehrt sich, wenn man es teilt. Im Gegensatz zu materiellen Gütern sind Informationen unbegrenzt verfügbar: Ein Datensatz, der zum Beispiel das heutige Wetter beschreibt, verliert nicht an Wert, wenn ihn mehrere Menschen verwenden. Im Gegenteil, der Datensatz wird sogar wertvoller, wenn man ihn ergänzt und mit anderen Informationen verknüpft.

    Wissen ist eine ganz besondere Ressource: Es vermehrt sich, wenn man es mit anderen teilt. (BildurheberIn: Ansonlobo, eigenes Werk. Lizenz: CC BY-SA 4.0 via Wikimedia Commons)

    Durch die Digitalisierung entstehen neue Herausforderungen: Für jeden einzelnen Menschen im persönlichen Alltag genauso wie für die Politik, Industrie, Wirtschaft und Forschung. Aber “Wissen” ist kein neues Thema der Digitalisierung – es war schon immer vorhanden, wurde mündlich verbreitet, in Bildern und Büchern. Neu ist, dass es jetzt so einfach ist wie nie zuvor, Wissen in der ganzen Welt zu verbreiten.

    Doch wie schaffen wir möglichst vielen Menschen einen freien Zugang zu diesem unendlichen Rohstoff? Die Lösung: Wissen öffnen!

    Openness” ist der Fachbegriff für das Prinzip, diesen freien Zugang und die freie Verwendung zu ermöglichen. Dabei gibt es offene Software (Open Source), offene Forschung (Open Science), offene Regierung (Open Government) und vieles mehr. In diesem Artikel beschäftigen wir uns mit dem Thema offene Daten, oder: Open Data.

    1) Was ist Open Data, und was bringt es uns?

    Unter dem Begriff Open Data (offene Daten) versteht man nicht-personenbezogene Daten in maschinenlesbarer Form, die als kostenlose, öffentliche Ressource von jedem Menschen nutzbar sind – etwa um neue Startups zu gründen, Informationen zu gewinnen oder Abläufe im eigenen Unternehmen zu verbessern.

    Offene Daten bzw. potentielle offene Daten lassen sich praktisch überall finden: In den Bereichen Verwaltung und Regierung ebenso in Wirtschaft, Kunst und Kultur, Wissenschaft und in der Zivilgesellschaft.

    Die Möglichkeiten, die daraus entstehen, sind grenzenlos: Mit Open Data lassen sich Anwendungen erschaffen, die der Gesellschaft ebenso wie der Wirtschaft nutzen. (Eine ausführliche Definition lässt sich auf opendefinition.org nachlesen.)

    Offene Daten….

    … schaffen Vertrauen in die Verwaltung durch nachvollziehbare Verwendung von Steuermitteln. Legt die Verwaltung sämtliche Informationen offen, die durch Steuergelder finanziert werden (und die weder persönliche, noch sicherheitsgefährdende Daten enthalten), dann erlaubt diese Transparenz den BürgerInnen, sich aktiv damit auseinanderzusetzen. Durch die Möglichkeit, verwalterisches Handeln zu kontrollieren, steigt das Vertrauen in staatliche Institutionen.

    … lassen die Wirtschaft wachsen, weil neue Ressourcen und Business-Modelle für Startups entstehen. Wenn Informationen – Daten, Erkenntnisse und Algorithmen – kostenfrei für eine breite Öffentlichkeit zugänglich sind, entsteht dadurch eine wertvolle neue Ressource. Dadurch fällt eine finanzielle Barriere weg, was besonders für Startups und (angehende) Entrepreneurs wichtig ist, um daraus neue und innovative Lösungen zu schaffen.

    Aus Open Data lassen sich Spiele, Apps und Webanwendungen programmieren: Junge Menschen können mit offenen Daten nicht nur ihre technischen Fähigkeiten ausbauen, sondern auch ihr Bewusstsein für gesellschaftspolitisches Engagement stärken. (Foto: CC-BY 4.0 Luiza Puiu)

    2) Was sagt die Politik dazu?

    In der Europäischen Union (EU) ist das Thema Openness seit einigen Jahren von großer Bedeutung. Die EU hat in den letzten Jahren mehrere Strategiepapiere zu Open Source, Open Data und Open Science veröffentlicht, um die Realisierung des digitalen Binnenmarktes zu unterstützen.

    In Österreich wird die Veröffentlichung von Open Data und Public Sector Information (PSI) derzeit allerdings sehr lückenhaft gehandhabt. Zwar gibt es die europäische PSI Richtlinie und das Informationsweiterverwendungsgesetz, jedoch sind das Gesetz und die Richtlinie in der österreichischen Verwaltung teils wenig bekannt und/oder kommen oft schlicht nicht zum Einsatz.

    Das Thema Openness ist in Österreich auf verschiedenen Ministerien aufgeteilt. Damit wir jedoch etwas erreichen können, müssen alle zusammenarbeiten: Es bedarf einer ineinandergreifenden Strategie, die über ministerielle Zuständigkeitsgrenzen hinweg eine Vision der Offenheit und Transparenz bietet. Wir brauchen eine starke politische Openness-Agenda in Österreich: Bund, Länder und Gemeinden müssen sich mit den ExpertInnen aus der Zivilgesellschaft und der Forschung an einen Tisch setzen und eine gemeinsame Vision für Österreich ausarbeiten. In einem offenen Prozess, der auch die einzelnen BürgerInnen teilhaben lässt, gilt es konkrete Maßnahmen zu finden, um die Openness-Vision nachhaltig umzusetzen.

    Bisher wurden in Österreich einige Projekte im Bereich Openness unterstützt, wie etwa die Open Data Portale data.gv.at und opendataportal.at, das Projekt e-infrastructures.at zur offenen Archivierung wissenschaftlicher Erkenntnisse oder geförderte Innovationsprojekte wie openinnovation.gv.at. Obwohl schon einiges geschehen ist, ist noch viel zu tun. Es sind weitere Anstrengungen erforderlich, die von der Politik beschlossen und mit finanziellen Mitteln gefördert werden müssen. Zur Umsetzung der europäischen digitalen Agenda und zur Unterstützung von nachhaltigem Wachstum brauchen wir konkrete Maßnahmen.

    Zusammenarbeit und Austausch zwischen Zivilgesellschaft, Privatwirtschaft, Politik und Verwaltung stehen im Vordergrund. (Bild: Der Transparenz-Kreislauf. CC-BY 3.0 AT. Sunlight Foundation, bearbeitet von Robert Harm.)

    3) Neue Projekte: Die nächsten Schritte in eine bessere Zukunft

    Im Folgenden zeigen wir einige Beispiele für Initiativen aus der Zivilgesellschaft, die sich bereits im Bereich Open Data engagieren. Diese Initiativen sind AnsprechpartnerInnen für mögliche “Leuchtturmprojekte”, die von der Politik unterstützt werden könnten, um eine nachhaltige Open Data Strategie in Österreich zu gewährleisten.

    3.1. Amtsgeheimnis abschaffen und Informationsfreiheit in die Verfassung aufnehmen

    “Open by default”: Die transparente Bereitstellung von Daten und Informationen muss zum Standard werden. BürgerInnen sollen sich darüber informieren können, welche Daten und Informationen von der Verwaltung verfügbar sind. Konkrete Möglichkeiten dafür sind ein Informationsregister nach slowenischem Vorbild, sowie die Einrichtung einer Schlichtungsstelle durch Informationsfreiheitsbeauftragte. Letztere ermöglicht den BürgerInnen, beim Wunsch nach Informationen nicht den Staat klagen zu müssen, wie es derzeit im österreichischen Gesetzesentwurf des Informationsfreiheitsgesetzes vorgesehen ist.

    AnsprechpartnerIn 1) Forum Informationsfreiheit

    Die zivilgesellschaftliche Initiative Forum Informationsfreiheit engagiert sich mit mehr als 13.000 UnterstützerInnen für das Ende des Amtsgeheimnisses und für ein Recht aller BürgerInnen auf Zugang zu Behördeninformationen.

    Mit dem Motto “Gläserner Staat statt gläserner Bürger” setzt sich das Forum Informationsfreiheit für Informationsfreiheit, Open Data und mehr Transparenz in Politik und Verwaltung ein. Der Verein betreibt die Plattform FragDenStaat.at, über die BürgerInnen unkompliziert – und auf Wunsch öffentlich nachvollziehbar – Anfragen an Behörden richten können, und bietet auch Transparenz-Workshops für Gemeinden, interessierte Organisationen und Bürgerinitiativen an.

    3.2 Offene Daten in der Privatwirtschaft fördern

    Offene Datenportale, sowohl für Daten der Verwaltung als auch für Daten der Privat- und Zivilgesellschaft, sind Grundpfeiler der nationalen IKT-Infrastruktur. Dementsprechend müssen sie mit den notwendigen finanziellen Mitteln ausgestattet werden, um den Betrieb nachhaltig und langfristig zu sichern und um sich durch konsequente Weiterentwicklungen auf internationalem Standard zu halten.

    AnsprechpartnerIn 2) Open Data Portal Österreich

    Auf opendataportal.at findet sich das zentrale Datenportal für Wirtschaft, Kultur, NGO/NPO, Forschung und Zivilgesellschaft.

    Das Open Data Portal Österreich ist dabei die erste Anlaufstelle für die Privatwirtschaft. Die ExpertInnen bieten Beratung und Serviceleistungen rund um das Thema Daten an.
    So begleitet etwa das aktuelle Programm Data Pioneers, in Kooperation mit dem Bundesministerium für Verkehr, Innovation und Technologie, Unternehmen dabei, die Welt von Open Innovation und Open Data zu erkunden – und die daraus resultierenden Chancen zu nutzen. Dazu bieten die ExpertInnen vom Open Data Portal Österreich ineinander greifende Veranstaltungen und individuelle Betreuung für Unternehmen an.

    3.3 Mit offenen Verkehrsdaten die Wirtschaft stärken

    Zahlreiche Verkehrsunternehmen setzen schon jetzt auf Open Data, darunter die Wiener Linien, der Verkehrsverbund Ost-Region, der Steirische Verkehrsverbund und Graz Linien sowie die Linz AG. Auf lange Sicht müssen jedoch alle Verkehrsunternehmen des Landes offene Daten bereitstellen, um eine lückenlose, bundesweite Abdeckung sicherzustellen. Hier ist es wichtig, den politischen Rahmen zu schaffen, der eine österreichweite Freigabe sämtlicher Fahrplan- und Echtzeit-Daten der Verkehrsauskunft Österreich (VAO) ermöglicht.

    Mit der VAO, die von den einzelnen Verkehrsverbünden zentral mit Daten beliefert wird, gäbe es erstmals die Möglichkeit, auf einen Schlag offene Verkehrsdaten für ganz Österreich bereitzustellen – diese Chance sollte genutzt werden. Die Grundlage dazu lässt sich schon im Arbeitsprogramm der Österreichischen Bundesregierung 2013 -2018 nachlesen: “Verkehrsauskunft Österreich: Eine verkehrsträgerübergreifende und auf Echtzeit-Daten basierende Verkehrsauskunft für ganz Österreich soll umgesetzt werden”. Von einer solchen Umsetzung profitieren die ÖsterreicherInnen in vielerlei Hinsicht:

        • Förderung der lokalen Wirtschaft: Mit offenen Daten der Wiener Linien entstanden bereits über 30 Apps, meist von EntwicklerInnen mit regionalem Bezug.

     

        • Mehrwert für den Tourismus: Das in Österreich so flächendeckend ausgebaute öffentliche Verkehrsnetz ist für Millionen von TouristInnen die Google, Bing oder Apple Maps verwenden, nicht sichtbar. Werden Verkehrsdaten als Open Data in internationalen Standardformaten zentral publiziert, können diese Anbindungen geschaffen werden. Der Fokus liegt dabei auf Openness. Exklusive Vereinbarungen, wie etwa die ÖBB sie mit Google geschlossen hat, sind kontraproduktiv.

    Ein Beispiel dafür, wie gut die Zusammenarbeit der Länder funktionieren kann ist basemap.at, die Verwaltungskarte für Österreich, die bereits als Open Data verfügbar ist. Die Prozesse dahinter könnten der VAO als Vorbild dienen.

    AnsprechpartnerIn 3) Initiative Offene Öffis

    Die Initiative Offene Öffis beschäftigt sich mit diesem Anliegen und hat bereits Lösungsansätze für die VAO ausgearbeitet, um eventuelle Hürden bezüglich des aktuellen Geschäftsmodells zu überwinden.

    Zahlreiche neue Mobilitäts-Apps können durch Open Data entstehen. (Screenshot via offene-oeffis.at)

    3.4 Kosten senken durch offene Adressdaten

    Adressdaten sind in Österreich zwar kein Geheimnis, aber sie sind noch nicht „offen“ im Sinn von Open Data: kostenlos, online frei zugänglich, in einer einheitlichen Schreibweise.

    Gesicherte Adressdaten reduzieren unterschiedliche Schreibweisen bei der Adressierung von BürgerInnen und Wirtschaftstreibenden, die zu Inkonsistenzen in Datenbanken und zu zusätzlichen Aufwänden in IKT-Systemen führen. Eine national einheitliche, behördlich gesicherte und laufend aktualisierte freie Adressdatenbasis als Download und über eine Schnittstelle (API) könnte sowohl behördenintern, als auch von der Wirtschaft, zur Steigerung der Interoperabilität und Reduktion der Kosten beitragen.

    Egal ob Wohnbauten, öffentliche Gebäude, Parkanlagen, Bürokomplexe oder Orte mit geschichtlicher Bedeutung – alle lassen sich leichter finden, vergleichen und zusammenstellen, wenn es dazu offene Adressdaten gibt. (Bild: Karte von St. Pölten, 1821, Public Domain, via Wikimedia Commons).

    AnsprechpartnerIn 4) Offene Adressen.at

    Die Initiative Offene-Adressen.at hat eine Schnittstelle (API) zur Abfrage der Daten des offiziellen österreichischen Adressregisters geschaffen. Durch eine solche Schnittstelle können EntwicklerInnen die Adressdaten direkt in ihre Services, Apps und Websites einbauen.

    3.5 Mit Hackathons die Daten-Kompetenz junger Menschen stärken

    Als Ergänzung zur schulischen Ausbildung können Freizeitveranstaltungen maßgeblich die Kreativität und das Potential der jungen Generation im Umgang mit der Digitalisierung stärken. Dabei bietet sich das Format eines “Hackathons” an.

    Open Data Hackathons bestärken junge Menschen darin, mit ihren eigenen Fähigkeiten die Welt zu verbessern. Erwachsene MentorInnen stehen den Jugendlichen zur Seite beim Young Coders Festival 2014. (Foto: CC-BY 4.0 Luiza Puiu)

    Hackathon = hacken + Marathon
    Ein Hackathon ist ein offenes Veranstaltungsformat, bei dem die TeilnehmerInnen für einen begrenzten Zeitrahmen (ein Nachmittag, ein Tag, ein Wochenende, …) zusammenkommen, sich austauschen und zusammenarbeiten, um ein kniffliges Problem zu lösen, sprich: zu hacken.

    Gesellschaftlicher Anspruch: Nicht nur Programmieren lernen, sondern die Welt verbessern. Hackathons bieten die Möglichkeit, bei den TeilnehmerInnen ein Bewusstsein für gesellschaftliche Zusammenhänge zu schaffen. Wichtig sind dabei gemeinsames Arbeiten in einer geschützten, freundschaftlichen Atmosphäre und die bunte Vielfalt einer durchmischten TeilnehmerInnengruppe.

    AnsprechpartnerIn 5) Open Knowledge Österreich

    Open Knowledge Österreich setzt sich für offenes Wissen ein und bietet Expertise im Bereich Open Data und Hackathons.

    Der Verein Open Knowledge Österreich bietet mit dem Young Coders Festival (Jugendliche experimentieren für ein Wochenende mit offenen Daten) und Jugend hackt (ein ganzjähriges Community-Programm) Beispiele für solche Programme.

    Diese Liste ist bei weitem nicht vollständig: Es gibt zahlreiche engagierte Initiativen, Vereine und Projekte, die sich mit dem Thema Open Data in Österreich beschäftigen und seit Jahren großartiges leisten. Doch wir denken auch, dass es noch viel mehr Potential für Open Data in Österreich gibt.

    Fest steht: Mit dem digitalen Wandel sind wir gezwungen, unsere Gesellschaft umzukrempeln. Openness ist die Methode, die uns diesen Wandel nachhaltig, transparent und für alle zugänglich ermöglicht. Dazu brauchen wir Unterstützung auf politischer Ebene genauso wie aus der Forschung, Wirtschaft und Zivilgesellschaft – engagierte Menschen, die sich für eine bessere Zukunft einsetzen.

     

    Bio:
    Robert Harm ist Mitbegründer des Netzwerkes open3.at zur Förderung von Open Society, Open Government und Open Data in Österreich.

    Johann Höchtl arbeitet am Zentrum für E-Governance der Donau-Universität Krems und beschäftigt sich mit den Chancen und Herausforderungen von Technologieeinsatz für Gesellschaft und Verwaltung. Offene und große Daten sind ihm ein besonderes Anliegen.

    Sonja Fischbauer arbeitet selbstständig im Bereich Online-Kommunikation. Sie entwickelt Outreach-Strategien für Unternehmen und Forschungsprojekte und organisiert Hackathons. Bei Open Knowledge Austria engagiert sie sich für eine offene Wissensgesellschaft.

  • logo WerdeDigital.at

    Wie unterscheide ich wahr von falsch? – Dossier 3, Beitrag #3

    Falsche Accounts von Politiker_innen und Prominenten, gefälschte Krisenpropaganda, manipulierte Bilder oder frei erfundene Meldungen machen im Netz immer wieder die Runde. Wie man Fakes und Hoaxes – Falsch- und Scherzmeldungen – erkennt.

    Das Jahr 2016 war kein gutes für die Wahrheit. Egal, ob in der Brexit-Diskussion oder in den Präsidentschaftswahlkämpfen in Österreich und den USA: Noch nie gab es ein so hohes Maß an Falschinformation. Und das in allen Schattierungen: Von der mehr oder weniger klar erkennbaren Satire, über dramatisierte, um Klicks buhlende Clickbait-Überschriften, irreführende, weil bewusst unvollständige Informationen, über Bildfälschungen, Lügen bis hin zur frei erfundenen Meldung war alles dabei. Bot-Accounts – automatisiert betriebene Präsenzen in z.B. Facebook oder Twitter haben diesen Inhalten zu noch größerer Reichweite verholfen.

    Besonders besorgniserregend: Es gibt inzwischen eine Reihe von Leuten, die Fake-News zum Geschäftsmodell erkoren haben, weil sie durch die vielen Klicks viel Geld mit Anzeigen verdienen können. Leider gab es auch immer wieder Fälle, in denen professionelle Journalisten auf solche Falschmeldungen hereingefallen sind. Vor diesem Hintergrund gilt für Journalismus im Netz mehr denn je der alte Grundsatz der Nachrichtenagentur United Press International: „It’s good to be first, but first you have to be right.“ Die journalistische Sorgfaltspflicht ist besonders wichtig, um nicht auf Fälschungen hereinzufallen. Bei Fälschungen geht es meistens entweder um falsche Identitäten und/oder um falsche Inhalte.

    Falsche oder irreführende Identitäten entdecken

    Im Netz, speziell auf sozialen Netzwerken, ist es ein Kinderspiel, sich als jemand auszugeben, der man nicht ist. Ein Foto ist schnell geklaut, der Nutzername auch, fertig ist der Fake-Account. Gerade bei prominenten Personen ist das häufig der Fall. So gibt es auf Twitter zig Angela Merkels, aber keine einzige davon ist die echte.
    Inzwischen haben Facebook und Twitter so genannte verifizierte Accounts eingeführt: An einem weißen Haken auf blauem Grund ist erkennbar, dass es sich tatsächlich um den Account der prominenten Person oder Institution handelt. Die Netzwerke haben in diesem Fall selbst die Identität überprüft. Wenn dieser weiße Haken fehlt, heißt das aber noch nicht automatisch, dass es sich um ein Fake-Profil handelt. Es gibt auch echte Profile, die eben noch nicht von den Betreibern der Social Networks verifiziert wurden. Manchmal kann eine einfache Google-Suche nach Berichten über einen Fake-Account schon helfen. Doch es gibt noch weitere Möglichkeiten, Original und Kopie voneinander zu unterscheiden:

    • Der Nutzername kann ein erstes Indiz liefern: Wenn er erkennbar ironisch ist oder eine hohe Zahl wie „Angela Merkel 23“ hat, ist oft schon klar, dass hier ein „Spaßvogel“ am Werk ist.
    • Das gleiche gilt für unvorteilhafte Profilfotos. Die PR-Berater von Promis achten immer auf ansehnliche, gut inszenierte (Profil-)Fotos.
    • Die Selbstbeschreibung eines Profils lohnt einen Blick. Manchmal steht hier, dass es sich um einen Parodie-Account handelt. Manchmal klingt aber auch an dieser Stelle alles offiziell und täuschend echt.

    Selbst ein Website-Link entlarvt einen Fake-Account noch nicht eindeutig. Ein falscher Account kann ja immer noch den Link zur richtigen Website setzen. Hier lohnt der umgekehrte Check: Gibt es auf der Website von www.bundesregierung.de einen Link zum entsprechenden Social-Media-Profil? Aber selbst eine Website kann man fälschen. Falls es hier Zweifel gibt, lohnt eine „Who-Is“-Abfrage, d.h. Eine Auskunft, wer eine Website registriert hat. Für .at-Domains http://nic.at/ zuständig. Um zu erfahren, wie die Registrierungsstelle für Top Level Domains anderer Länder heißt, hilft der Who-Is-Service der Internet Assigned Numbers Authority (IANA) weiter. Für Top-Level-Domains, die keinerlei Rückschlüsse auf das Ursprungsland zulassen wie etwa .com, gibt es internationale Who-Is-Verzeichnisse wie www.whois.com/whois/.

    Ein weiteres Beispiel für Irreführung ist die Website bundespraesidentschaftswahl.at. Wer „Bundespräsidentenwahl Österreich“ googelt, bekommt die Seite als einen der ersten Treffer angezeigt. Auf den allerersten Blick wirkt die Seite offiziell mit Bildern der Hofburg, der rot-weiß-roten Fahne und sachlichen Begriffen in der Navigation wie „Bundespräsidentenwahl 2016“, „Briefwahl“, „Ergebnisse“, „Wahlrecht“ etc. Da könnte man meinen, auf einer Regierungs-Seite gelandet zu sein. Bei einem Blick auf den Vergleich der Wahlprogramme der beiden Kandidaten merkt man dann, dass FPÖ-Kandidat Hofer in positives Licht gerückt wird, während Alexander van der Bellen hier meist schlecht wegkommt („Drückeberger“ bei der Frage nach dem Grundwehrdienst). Im Impressum stößt man auf den Namen Robert Marschall und wer den googelt, findet heraus, dass es sich um den Obmann der EU-Austrittspartei handelt. Politisch steht er Norbert Hofer offensichtlich viel näher als Alexander van der Bellen. Hier liegt also die Vermutung nahe, dass er Hofer mit der Seite unterstützen will. Wenn man weiß, wer hinter einer Website steckt, kann man sich Gedanken über die Interessen machen, die der- oder diejenige mit der Seite bzw. einer bestimmten Meldung bezweckt.

    Vorsicht bei spektakulären Inhalten von unbekannten Absendern

    Es gibt natürlich auch Fälle, in denen nicht die Prominenz des Absenders im Mittelpunkt steht, sondern der Inhalt brisant oder interessant ist. Wie erkenne ich nun, ob der Absender eine vertrauenswürdige Quelle ist und die Inhalte stimmen? Auch hier lohnt ein Blick auf die Profilinformationen.
    Jede weitere Information über den Absender ist wertvoll:

    • Hat er eine eigene Website, ein Blog, Profile in sozialen Netzwerken?
    • Wer steht dort jeweils im Impressum?
    • Steckt eine Organisation oder eine Lobby dahinter? Wenn ja, welche?
    • Geben diese Präsenzen ein stimmiges Gesamtbild, sprich: Ist ein inhaltlicher Schwerpunkt und eventuell eine Expertise erkennbar?

    Wenn ein Post nach breaking news klingt, thematisch aber gar nichts mit dem sonstigen Schwerpunkten zu tun hat, ist Vorsicht geboten. Das gleiche gilt, wenn ein Profil sehr jung ist und gleich mit Insider-Informationen aufwartet. Hier liegt der Verdacht nahe, dass das Profil eigens geschaffen wurde, um Falschinformationen zu verbreiten.

    Aufschlussreich kann ein Blick auf die Gefolgschaft des Accounts im jeweiligen sozialen Netzwerk sein. Hat er sehr viele oder sehr wenige Follower? Noch wichtiger: Folgen ihm bekannte und verifizierte Accounts? Natürlich ist das keine Garantie, aber es ist doch unwahrscheinlich, dass gleich mehrere arrivierte Accounts einem unseriösen Account folgen.

    Besonders skeptisch sollte man auch sein, wenn der Inhalt zu gut oder zu spektakulär klingt, um wahr zu sein. Etwa die vermeintliche App „Rumblr“, mit der man sich angeblich zu einem Straßenkampf verabreden konnte. Im Zweifelsfall sollte man immer versuchen, Kontakt zum Urheber der fraglichen Information aufzunehmen. Wenn ein Anruf nicht möglich ist, weil sich keine Telefonnummer recherchieren lässt, sollte man den Urheber direkt im Netzwerk ansprechen oder eine Mail mit der Bitte um Kontaktaufnahme oder Übermittlung einer Telefonnummer schicken. Je nach Standort von Urheber und Journalist ist unter Umständen sogar eine persönliche Begegnung denkbar.

    Wenn jemand eine spektakuläre Information über eine bekannte Person oder Institution verbreitet, ist es am besten, bei dieser Person oder Institution direkt nachzufragen, ob die Information zutrifft. Falls das alles nichts fruchtet, gilt: Lieber die Finger davon lassen und nicht darüber berichten. Es bringt nichts, eine unbestätigte Information mit dem Hinweis, dass sie eben noch nicht verifiziert werden konnte, weiter zu kolportieren. Zu groß ist die Gefahr, dass ein Großteil der Leser_innen den Inhalt eben doch für bare Münze nimmt. Der journalistischen Glaubwürdigkeit erweist man damit einen Bärendienst.

    Auch bei Bildern ist Vorsicht geboten. Gerade weil ihnen noch immer Beweiskraft zugesprochen wird. Dabei sind Bildern sehr leicht zu manipulieren. Oder aber Bilder werden nicht manipuliert, aber in einem vollkommen fremden Kontext verwendet, oft mit der Absicht, sie für eigenen Zwecke zu instrumentalisieren. Hier kann eine umgekehrte Bildersuche („Reverse Image Search“) Wunder wirken: Dazu lädt man auf Seiten wie tineye.com ein Bild hoch (oder gibt nur die URL des Bildes ein) und sortiert nach Datum. Oft wird so klar, dass ein Bild schon viel älter ist als behauptet wird, also nicht wirklich was mit dem kolportierten Ereignis zu tun hat. Auch Metadaten von Bildern können sehr aufschlussreich sein.

    Als Gegenbewegung zu den vielen Halb- oder Unwahrheiten haben sich eine Reihe von Fact-Checking-Seiten gebildet: politifact.com untersucht in den USA seit Jahren Politiker-Statements auf ihren Wahrheitsgehalt. hoaxmap.org dokumentiert in Deutschland Falschmeldungen und Gerüchte über Asylbewerber. In Österreich hat sich in den vergangenen Jahren vor allem mimikama.at einen Namen unter den Fact-Checking-Seiten gemacht. mimikama berichtet über aktuelle Fakes und macht diese Berichte über hoaxsearch.com durchsuchbar. Außerdem gibt die Seite Tipps, wie man Fake-News erkennt und gibt diese Tipps auch in Webinaren weiter. Eine große Rolle bei der Verbreitung der Aufklärung über jede Form von Internetmissbrauch spielen die Social-Media-Kanäle, speziell Facebook. Dort ist Mimikama unter dem Namen „Zuerst denken, dann klicken“ aktiv und hat mehr als 660.000 Follower. Für seine unermüdliche Aufklärungsarbeit war Mimikama 2016 für den klicksafe Preis des deutschen Grimme-Instituts nominiert.

    Politik sorgt sich um Qualität der Debattenkultur

    Auf dem Feld der Wahrheitsfindung gibt es also viel zu tun. Ein Ansatz ist Prävention durch Wissen. Während in Deutschland gerade wieder die Diskussion hochkocht, ob Medienkompetenz ein eigenes Schulfach werden soll oder es als Querschnittsthema in verschiedenen Fächern stärker beleuchtet werden soll, ist Österreich hier schon weiter. Seit 2012 gibt es einen Grundsatzerlass zum Unterrichtsprinzip Medienerziehung. Medienkompetenz taucht auch in Lehrplänen von Grundschule, Mittelschule und allgemein bildenden höheren Schulen auf.

    Die Schwemme von Fake-News auf Facebook hat dazu geführt, dass Spitzenpolitiker Facebook zum Gegensteuern aufrufen. Bundeskanzler Kern bemängelte jüngst die fehlende inhaltliche Verantwortung Facebooks für „Manipulationsmöglichkeiten und politischen Einfluss“. Neben Falschinformationen sieht er auch Beleidigungen als großes Problem und fordert einen EU-weiten Regulierungsrahmen für Facebook, aber auch für Google.

    Ohne Facebook und Google namentlich zu erwähnen, hat die deutsche Bundeskanzlerin Angela Merkel auf den Medientagen München 2016 mehr Transparenz für Algorithmen gefordert: „Ich persönlich bin dabei auch der Meinung, dass Algorithmen transparenter sein müssen, sodass interessierten Bürgern auch bewusst ist, was eigentlich mit ihrem Medienverhalten und dem anderer passiert.“ Hintergrund ist die gesellschaftliche Debattenkultur: Speziell der Facebook-Algorithmus bevorzugt Inhalte, die oft geteilt, geliked und kommentiert werden. Besonders häufig ist das bei emotionalisierten und dramatisierten Inhalten der Fall. Und beim Emotionalisieren und Dramatisieren bleibt von der Wahrheit oft nicht mehr viel übrig. Oder noch schlimmer: Frei erfundene Inhalte mit sensationsheischender Überschrift werden viral und verbreiten sich ähnlich einem Krankheitserreger. Facebook-Chef Mark Zuckerberg will keine Verantwortung übernehmen. Er hat nach der US-Wahl die Unterstellung, dass Falschmeldungen auf Facebook „die Wahl in irgendeiner Weise beeinflusst“ hätten, als „ziemlich verrückt“ zurückgewiesen. Der Politik hat auf diesem Feld also nur einen begrenzten Einfluss. Um so wichtiger ist für alle Netznutzer_innen die Kompetenz, arg zugespitzte Inhalte auf ihren wahren Kern hin zu beleuchten. Und zwar bevor man auf den Teilen-Button geklickt hat. Wie formuliert es Mimikama so schön: Zuerst denken, dann klicken.

     

    Autor
    Bernd Oswald ist freier Medienjournalist, Trainer und Trendscout im digitalen Journalismus. Er interessiert sich für die Weiterentwicklung des Journalismus an der Schnittstelle zwischen Redaktion, Programmierung und Design. Deswegen hat er Hacks/Hackers München mitgegründet, wo Journalisten, Programmierer und Designer neue Formate diskutieren und konzipieren. Zu diesen Themen twittert er als @berndoswald und bloggt zudem auf www.journalisten-training.de. Eine Auswahl seiner Arbeitsproben präsentiert er auf seinem Torial-Profil.

  • logo WerdeDigital.at

    Die Gefahren durch Social Bots – Dossier 3, Beitrag #2

    Social Bots stellen durch die Einflüsse, die sie bewirken können, eine Gefahr für die Demokratie dar. Was genau sind Social Bots? Welche konkreten Gefahren können von ihnen ausgehen, auch für Österreich? Und was kann dagegen unternommen werden?

    Was sind Social Bots?

    Ein Bot (von Robot) ist ein Computerprogramm, dass je nach Vorgabe seines Programmierers bestimmte, sich wiederholende Aufgaben erledigt. Mit dem Zusatz Social werden Bots bezeichnet, die in vorzugsweise sozialen Netzwerken wie Facebook, Twitter oder Instagram agieren. Sie versuchen meist, ihre Identität zu verschleiern, wollen weitestgehend menschlich erscheinen, wie echte Nutzer.
    Dabei ist der Grundgedanke hinter Social Bots vollkommen harmlos und legitim: Sie sind sehr hilfreich, wenn es beispielsweise darum geht, mit vielen Nutzern sozialer Netzwerke in kurzer Zeit zu interagieren, spezifisch nach der gewünschten Zielgruppe Beiträge zu erstellen oder Follower regelmäßig auf neue Publikationen hinzuweisen. So haben zum Beispiel die Blogger von netzpolitik.org einen Social Bot programmiert, der regelmäßig prüft, ob auf der eigenen Website ein neuer Beitrag veröffentlicht wurde. Der Bot postet anschließend jeden Beitrag automatisch auf Twitter. Er nimmt also potenzielle Arbeit ab.

    Es ist sehr einfach, einen Social Bot zu erstellen. Für Twitter benötigt man einen Nutzeraccount, einen Zugang zur automatisierten Schnittstelle (API) des sozialen Netzwerks und ein Programm, das in der Lage ist, einen Account automatisiert steuern zu lassen. Außerdem gibt es zahlreiche Anleitungen im Internet, die auch für Laien das Programmieren von Bots so einfach wie möglich gestalten sollen.

    Welche Gefahren können von Social Bots ausgehen?

    Bedenklich wird der Einsatz von Social Bots, wenn sie zur automatisierten Propaganda missbraucht werden. Schließlich ist es möglich, mit einem einzigen Computerprogramm mehrere hundert oder sogar tausend Fake-Accounts für Twitter zu steuern. Das richtige Tool dafür kostet ca. 200 $, die nötigen Accounts sind ebenfalls online erhältlich.

    Für 80 $ kann man sich 1.000 Twitter-Profile kaufen, für 20 $ mehr sogar jeweils mit Profilbild- und -beschreibung, damit sie möglichst menschlich wirken und als Fake Accounts nicht so schnell auffliegen.

    Der Politologe Simon Hegelich geht in einer Studie der Konrad Adenauer Stiftung davon aus, dass Social Bots vor der Brexit-Abstimmung in Großbritannien und während der Krim-Annexion mitten im Ukrainekonflikt mitgemischt und erheblichen Einfluss auf Debatten ausgeübt haben. Dabei merkt er an, dass die künstliche Intelligenz, die sich hinter den Bots verbirgt, immer komplexer und schlauer wird. Vereinzelt können Social Bots wie echte, menschliche Nutzer erscheinen, indem sie einen Tag-Nacht-Rhythmus vortäuschen, viele Follower aufweisen, überwiegend Beiträge zu eher nebensächlichen Themen veröffentlichen und sogar mit Menschen im Chat kommunizieren können. Gleichzeitig aber, am Beispiel des Ukrainekonflikts zu sehen, gemischt mit politisch-rechten Inhalten.

    Social Bots sind dabei eine große gesellschaftliche Gefahr, denn durch die Möglichkeit, mit einem einzigen Computerprogramm mehrere tausend Bots zu kontrollieren, können gesellschaftliche Meinungen beeinflusst werden. Durch Likes und Retweets (die maßgeblichen Kenngrößen für Erfolg und Reichweite auf Twitter) können die sogenannten „Trending Topics“, also die Ranglisten mit den Begriffen, die in dem sozialen Netzwerk aktuell am häufigsten Verwendung finden, beeinflusst werden.

    So wurden auch während des letzten US-Wahlkampfs Social Bots eingesetzt, die meisten schätzungsweise aus dem Trump-Lager. Als die erste TV-Debatte zwischen Hilary Clinton und Donald Trump vorbei war, stieg der Hashtag #Trumpwon („Trump hat gewonnen“) schnell in den Trending Topics bei Twitter auf, während viele Zuschauer und vor allem die Presse Trump als deutlichen Verlierer der Debatte einstufte. So wurde in dem sozialen Netzwerk das gesellschaftliche Bild deutlich verzerrt. Wer die Debatte nicht sah und nur einen Blick auf den Twitter-Trend warf, war vermutlich der Ansicht, Trump wäre aus der TV-Debatte als deutlicher Sieger hervorgegangen.
    Eine kurz vor der Wahl veröffentlichte Studie von Alessandro Bessi und Emilio Ferrara der University of Southern California gab Schätzungen ab, dass während des Wahlkampfs knapp 400.000 Bots auf Twitter mitgemischt haben. Sie veröffentlichten 3,8 Millionen Tweets, wobei ungefähr 75% von ihnen für Donald Trump twitterten und nur 25% für Hilary Clinton. Eine weitere Studie von Bence Kollanyi, Phillip N.Howard und Samuel C. Woodley, die knapp 10 Tage nach der Präsidentschaftswahl 2016 erschien, stellt außerdem fest: Social Bots aus dem Trump-Lager waren besonders aktiv zu strategisch wichtigen Ereignissen, beispielsweise während und nach den jeweiligen TV-Debatten und kurz vor der eigentlichen Wahl am 8. November.

    Das gefährliche dabei: Durch das Verfälschen oder Verstärken von Trends lassen sich viele Menschen indirekt beeinflussen. Oft schließen sie sich der Meinung an, die tendenziell die meiste Zustimmung erhält. Deshalb ist es in Österreich beispielsweise verboten, erste Auszählungen und Wahlprognosen am Tag der Nationalratswahl vor Schließung der Wahllokale zu veröffentlichen, damit die Wahlergebnisse nicht durch psychologische Faktoren beeinflusst werden können. Dass im Falle von Social Bots viele natürlich nicht erkennen, dass es sich bei ihnen gar nicht um die Meinung echter Menschen handelt, macht die Sachlage umso gefährlicher. Während der Brexit-Debatte konnte festgestellt werden, dass Tweets mit dem Hashtag #Brexit häufig von Bots stammten. Ein Großteil davon wurde dem konservativen Lager zugeschrieben, das für einen Austritt aus der Europäischen Union war. Social Media-Trends fließen außerdem in wirtschaftliche und politische Entscheidungsprozesse ein. Durch die Analyse von vermeintlich präsenten Meinungen in sozialen Netzwerken passen Unternehmen ihre Marketingstrategien und Politiker ihre Programme an. So können Social Bots zu einer Gefahr für die Gesellschaft und schließlich auch für die Demokratie werden.

    Propaganda-Roboter auch in Österreich?

    Bisher gibt es keine Anzeichen dafür, dass Social Bots zu Propagandazwecken in Österreich eingesetzt werden. Doch auch hier besteht potenziell die Gefahr, dass gesellschaftliche Debatten gezielt beeinflusst werden können. So kann die aktuelle Flüchtlingsdebatte und die gesellschaftliche Meinung dazu in gewissen Maßen gelenkt werden, wenn Social Bots zum Beispiel in großem Umfang den Hashtag #refugeesnotwelcome („Flüchtlinge nicht willkommen“) auf Twitter benutzen, während die österreichische Gesellschaft doch eher zu einer offenen Willkommenskultur tendiert. Auch hier würde gelten: Der Eindruck, der durch die verfälschten Trends in sozialen Medien entstehen kann, ist gefährlich für Politik, Medien und Gesellschaft.

    Was kann gegen den Einfluss unternommen werden?

    Social Bots werden nicht mehr verschwinden. Algorithmen und künstliche Intelligenzen sind Teil der Gesellschaft und gehen mit der digitalen Transformation einher. Den Betreibern sozialer Netzwerke gelingt es außerdem bisher nicht, alle unerwünschten Bots von ihren Plattformen zu verbannen.

    Die Methoden der Erkennung von Propaganda-Robotern in sozialen Medien, beispielsweise durch spezielle Tools  für die Nutzer, werden stetig optimiert und besser. Doch gleichzeitig wird auch die Programmierung von Propaganda-Robotern intelligenter und komplexer. Es gilt: Je menschlicher ein Social Bot agiert und sich verhält, desto schwieriger wird es, ihn als einen solchen zu erkennen.
    Schon jetzt ist es nahezu unmöglich, alle Bots, die sich in sozialen Netzwerken tummeln, zu identifizieren. Über die Anzahl gibt es höchstens Schätzungen. Viel schwieriger ist es überdies, die Drahtzieher hinter den Kulissen auszumachen. Niemand weiß, wer die Bots steuert, die etwa für Donald Trump Propaganda machen. Und auch der tatsächliche Einfluss, der sogenannte „Bot-Effekt“ (Simon Hegelich), den Social Bots auf die gesellschaftliche Meinung haben, ist empirisch nicht nachvollziehbar oder gar messbar.

    Wichtig ist daher vor allem, dass politische Akteure und Internetnutzer der potenziellen Gefahren durch das mögliche Verfälschen von Social Media-Trends sensibilisiert sind und einen verantwortungsvollen und aufgeklärten Umgang mit Algorithmen und künstlicher Intelligenz vermitteln. Auch sollte klar sein, dass quantitative Parameter wie „gefällt-mir-Angaben“ auf Facebook, Retweets, die Anzahl an Followern und Erwähnungen von Schlüsselwörtern auf Twitter keine Maßeinheiten für Qualität und gesellschaftliche Meinungstendenzen sind. Social Bots sind in sozialen Netzwerken allgegenwärtig. Ein Verantwortungsvoller und kritischer Umgang mit neuen Medien und Informationen im Internet, vor allem in sozialen Netzwerken, ist daher unerlässlich.

    Bilder:
    – Twitter Trends: Screenshot twitter.de
    – Fake-Profile kaufen: Screenshot http://www.buysocialaccountz.com/twitter-accounts
    – Twitter Tool: Screenshot: http://monstersocial.net

     

  • logo WerdeDigital.at

    Hass im Netz: Ein Interview mit Ingrid Brodnig – Dossier 3, Beitrag #1

     

    Das Thema Hasspostings kam in den letzten Jahren in aller Munde. Aber wer schreibt sie? Woher kommt das? Und was kann man dagegen tun? Das versuchen wir im Gespräch mit Ingrid Brodnig herauszufinden.

    Ingrid beschäftigt sich als Journalistin mit dem Thema schon seit Jahren. Im April erschien ihr Buch „Hass im Netz. Was wir gegen Hetze, Mobbing und Lügen tun können“ (Brandstätter-Verlag). In unserem etwa halbstündigen Interview haben wir über Trolle, Glaubenskrieger, die österreichische Rechtslage und ein paar Maßnahmen gesprochen, wie wir das Netz für uns alle wieder etwas schöner machen können.

    Es folgt eine gekürzte Version des Gesprächs. Im Podcast gehen wir mit Ingrid oft weiter ins Detail.

    Tom: Wie äußert sich Hass im Netz?

    Ingrid: Das kommt darauf an, wann man etwas als Hass bezeichnet. Ich spreche vor allem dann von Hass, wenn es ins strafrechtlich Relevante geht: Verhetzung und Drohungen. Darüber hinaus erleben wir auch sehr viel Wut und eine Tendenz, dass online eine Debatte sehr schnell entgleist. Wir sehen ein ständiges Scheitern der menschlichen Kommunikation. Es ist unglaublich schwierig, sachlich zu diskutieren. Das ist vielleicht die größere Problematik.

    Ist das im Web wirklich schlimmer und warum?

    Das ist tatsächlich so. Man kann eine Enthemmung feststellen. Menschen sind ruppiger und aggressiver. Die Enthemmung kann auch positiv sein. Schüchterne Menschen fassen etwa mehr Selbstvertrauen. Die negative Facette ist ein Ausleben von Wut, ein Ausleben dunkler Gefühle. Das liegt daran, dass die Face-to-Face-Kommunikation anders als die schriftliche online funktioniert. Die Anonymität ist ein Faktor, kann das aber nicht allein erklären. Ein anderer wichtiger Faktor ist die Unsichtbarkeit, die ich für immens bedeutend halte. Man sieht sein Gegenüber nicht. Da kann man ruppig sein, ohne die emotionalen Konsequenzen sehen zu müssen.

    Man muss also nicht miterleben, was die eigenen Worte genau anrichten.

    Genau. Augenkontakt ist immens empathiefördernd. Das funktioniert sogar über Webcams. Aber von dieser Unsichtbarkeit werden wir nicht so bald wegkommen.

    Du unterscheidest zwischen Trollen und Glaubenskriegern?

    Genau. Neben der allgemeinen Enthemmung gibt es spezielle Gruppen. Die sind für sehr viel Leid im Internet verantwortlich. Sie sind in ihrer Motivation aber sehr unterschiedlich. Der Troll etwa. Im Web wird der Begriff zu inflationär eingesetzt. Da wird oft jeder als Troll bezeichnet, der eine andere Meinung hat. Der Troll ist eigentlich ein Provokateur, den die Schadenfreude antreibt, der negative Emotionen auslösen und Menschen in Streitigkeiten bringen will. Dadurch fühlt er sich intellektuell erhaben. Trolle leiden überdurchschnittlich oft an Sadismus. Sie sind auch oft persönlich nicht besonders politisch und machen sich über Leute, die überzeugt von etwas sind, sogar eher lustig.

    Und die andere Gruppe?

    Die Glaubenskrieger sind ganz anders. Den Begriff habe ich gewählt, um die Nutzer zu beschreiben, die total von einer Sache eingenommen sind. Sie versuchen ohne Rücksicht auf die Gefühle anderer, ihre Weltsicht durchzubringen. Auch mit martialischen Mitteln: Falschmeldungen, Beleidigungen, Drohungen. Oft gibt es Verschwörungstheorien, die Bedrohungen in den Raum stellen. Glaubenskrieger halten das für echt, deshalb ist es plötzlich angemessen, jedes Mittel zu ergreifen um darauf hinzuweisen. Nachdem Falschmeldungen richtiggestellt werden, liest man von ihnen zum Beispiel oft den Satz „Aber es hätte auch wahr sein können“. Da geht es nur noch darum, dass etwas gefühlt wahr sein könnte und dadurch gibt es eine große Gleichgültigkeit gegenüber beweisbaren Fakten. Und auch eine besondere Aggression gegenüber Andersdenkenden, die schnell verunglimpft werden.

    Es wird dann keine Quelle mehr akzeptiert, die etwas Abweichendes behaupten könnte. Die Tendenz haben wir bei manchen Themen aber alle, oder?

    Ja. Aber es gibt Medienkonsum- und allgemeine Verhaltensformen, die einem helfen können, nicht zu einem harten Glaubenskrieger zu werden. Der Kontakt mit Andersdenkenden und Quellen, die nicht hundertprozentig dem eigenen Weltbild entsprechen, ist etwa sehr wichtig. Menschen, die etwa im Beruf viel mit Andersdenkenden konfrontiert sind, sind Studien zufolge auch besser informiert. Kann man mit anderen nicht mehr sachlich diskutieren, sitzt man selbst viel öfter Falschmeldungen auf. Intellektuell im Gespräch bleiben und Medien lesen, die etwas anders denken – mit solchen „Tricks“ kann man sich etwas davor schützen, es sich zu leicht zu machen.

    Welche Rolle spielt da Facebook mit seinen Algorithmen?

    Wir wissen es nicht. Facebook gibt unabhängigen Wissenschaftlern keinen Zugang zu den nötigen Daten. Eine aus wissenschaftlicher Hinsicht zutiefst umstrittene Studie zur Filterblase haben Facebook-Mitarbeiter selbst durchgeführt. Die wurde dann so dargestellt, als wäre der Effekt sehr klein. Aber selbst in dieser Studie gab es einen messbaren Unterschied zwischen liberalen und konservativen Nutzern. Das Problem ist eine Mischung aus Mensch und Maschine. Wir Menschen haben uns natürlich schon immer mit Nachrichten versorgt, die unser Weltbild bestätigen. Früher gab es Parteizeitungen. Aber auf Facebook geht das noch viel weiter ins Detail.

    Was gibt es für einen politischen Handlungsbedarf bei Hass im Netz?

    Wir haben im deutschsprachigen Raum eigentlich recht gut Gesetze. Da besteht nur zum Teil rechtlicher Nachbesserungsbedarf. Einer wäre, dass bedrohliche Kommentare derzeit keine gefährliche Drohung nach juristischer Definition sind. Etwa wenn jemand schreibt: „Du solltest dich nicht wundern, wenn du eines Nachts überfallen und vergewaltigt wirst“. Das ist juristisch nicht konkret genug, für das Opfer ist das aber vergleichbar. Wenn etwas kein Offizialdelikt ist – also etwa auch Beleidigungen – hat die Staatsanwaltschaft aber keine Handhabe, kann deshalb auch nicht aktiv werden und Täter ausforschen.

    Was würdest du jemandem raten, wenn er im Web schwer beleidigt oder bedroht wird?

    Auf jeden Fall alles dokumentieren. Viele Betroffene erzählen mir, dass sie im ersten Schock alles gelöscht haben. Dann kann man es nicht vor Gericht bringen und weiß auch nicht, wer der User war. Wenn man sich wirklich bedroht fühlt, dann sollte man es auch wirklich anzeigen. Viele Menschen glauben, das hat keine Chance. Aber es gibt eine. Und je mehr angezeigt wird, desto mehr wird auch durchgehen. Das Dritte ist: Nicht alleine bleiben. So etwas nagt an einem. Man sollte sich Verbündete suchen, auch Freunde auf Facebook darauf hinweisen.

    Das heißt, du würdest auch Leuten raten, einzuschreiten und etwas zu schreiben, wenn sie so etwas mitbekommen?

    Viele Betroffene sagen, Unterstützung hat sehr geholfen. Dadurch sieht man, dass die Anfeinder komisch sind und nicht man selbst. Man muss nach seinem Einschreiten dann auch nicht ewig mit aggressiven Usern herumdiskutieren. Es gibt kein Recht auf eine Antwort auf einen Kommentar. Und man kann natürlich auch einschreiten, wenn man inhaltlich mit der betroffenen Person nicht übereinstimmt.

    Bio: Das Gespräch führte Tom Schaffer. Tom ist freier Journalist und Medienmacher mit einer Leidenschaft für sachliche Diskussionen. Er betreibt unter zurpolitik.com, ballverliebt.eu und rebell.at Blogs und Podcasts zu den Themen Politik & Medien, Fußball sowie Games & Technologie.

    Podcast-Musik: Sidewalk Shade – slower von Kevin MacLeod (http://incompetech.com), Creative Commons: By Attribution 3.0 (http://creativecommons.org/licenses/by/3.0/ )

  • logo WerdeDigital.at

    News or Not

    Von einer anderen Perspektive aus…

    80% der Jugendlichen könnten Werbung und News – also Nachrichten – nicht voneinander unterscheiden, so eine Meldung der Seite t3n, der ich bei Xing begegnet bin. Darin heißt es, dass die kalifornische Stanford Universität im Zeitraum Januar 2015 bis Juni 2016 die Datensätze von Schüler_innen (Mittel- und Oberstufe), sowie einiger Studierender ausgewertet habe. Die 7.804 Datensätze aus 12 US-Bundestaaten zeigten, dass 80% der Befragten Werbungen nicht von Nachrichten unterscheiden könnten. Ähnliche Ergebnisse seien bereits im Jahr zuvor von der britischen Medienaufsichtsbehörde gefunden worden, dabei wäre deutlich geworden, dass nur 31% der 12-15-jährigen Schüler_innen den Unterschied erkennen würden und die jüngeren in der Altersgruppe 8-11 würden diese Aufgabe gerade zu 16% bewältigen.

    Als kritisch sei weiterhin anzusehen, dass Viele Informationen für wahr halten, sowie sie über Google zu finden seien (t3n 2016).

    Ich hinke grad der Zeit hinterher, denn mir fiel die Meldung zwar am Erscheinungstag auf, allerdings kam ich zunächst nicht dazu, meine Gedanken zu formulieren. Da sich nun seit Tagen die „Konsequenzen aus diesen Untersuchungen“ durch viele Facebook und Xing Beiträge ziehen, Expert_innen ihre Besorgnis bekunden und Pädagog_innen planen, wie dies zu ändern sei, möchte ich es jetzt nachholen.

    Die Forderung nach einer kritischen Mediennutzung ist nicht wirklich neu. Die Grundlagen, die es dazu braucht sind u.a. bei Baake seit vielen Jahren beschrieben. Denn die Medienpädagogik hat sich ja nicht mit der Klage über den „Verfall“ begnügt, sondern Dimensionen der Medienkompetenz klar formuliert. Gleichfalls gibt es hinreichend Untersuchungen, Modellprojekte, Evaluationen und entsprechende Literatur zur Notwendigkeit einer alltagspraktischen (um nicht zu sagen, einer alltagspragmatischen) Nutzung der Medien.

    Dass die Nutzung von Medien mit Bildung und einer entsprechenden Reflexivität einhergehen muss, dürfte auch relativ unumstritten sein.

     

    Was also sagt mir die Studie wirklich?

    Mich erinnerte sie zunächst an meine Eltern, die sich beim Lesen des Prints der „Apotheken Umschau[1]“ über neue Medikamente und Behandlungsmöglichkeiten informiert. Die Aussagen „Ich habe das da gelesen…“ und „… da stand, dass man xyz nehmen soll“ dürfte manchen vertraut sein. Der Effekt ist meiner Ansicht nach im Wesentlichen von den Print Medien zu bekannt, weshalb der Gesetzgeber dafür sorgte, dass Anzeigen von redaktionellen Beiträgen abgehoben werden müssen. Darüber hinaus gibt es klare rechtliche Vorgaben u.a. zur Werbung für Tabak, Alkohol, Glücksspiel, Medikamenten, Heilmittel, Babynahrung und anderen Produkten.

    Doch wie klar ist das für die Leser_innen zu trennen? Werden Beiträge zu Themen redaktionell aufgemacht und Werbung[2] entsprechend optisch nah gestaltet, so sind die Grenzen schwer zu erkennen.

    Ebenso, wenn reine Werbebeiträge in einer redaktionell anmutenden Form publiziert werden. In beiden Fällen kann die angemahnte Unterscheidungsfähigkeit ja nur gegeben sein, wenn die entsprechenden Hinweise bekannt sind. WEISS der/die Leser_in nicht, worauf zu achten ist, wird es für ihn/sie schwierig Hinweise finden oder die Form richtig zu interpretieren.

    Liegt es nun an „Defiziten“ der Rezipient_innen oder am Geschick der Anbieter_innen?

    Ich finde es verkürzt, wenn der Diskurs sich zwischen den beiden Polen bewegt.

    Dass die Fülle an Informationen, welche durch die digitalen Zugänge zur Verfügung stehen, mit entsprechenden (notwendigen!) Lernprozessen zur Differenzierung verbunden sein muss, ist aus der Perspektive deutlich, dass es eine kulturelle – also von Menschen gemachte und der gesellschaftlichen Phase entspringende Herausforderung ist.

    Jugendliche stehen – ebenso, wie die Generation der Großeltern – vor der Aufgabe zu erkennen, wer ihnen welche Informationen bietet, mit welcher Intention und wie sich die Validität der Aussagen überprüfen und einordnen lässt.

    Sie stehen allerdings noch mehr vor der Aufgabe, die Heterogenität der Aussagen und damit verbundenen Begründungslinien auf die Werte zu prüfen, die dahinterstehen und sich individuell für oder gegen die damit verbundenen Zugehörigkeiten zu entscheiden.

    Um dies greifbarer werden zu lassen, möchte hier einen kurzen historischen Exkurs anbieten:

    In den Jahren der Industrialisierung zogen die Menschen nicht nur vom Land in die Städte. In vielen Industriegebieten bildeten sich Siedlungsgemeinschaften[3], mit einem entsprechenden, dörflichen Charakter.  Die Werkssiedlungen sind heute zum Teil als „Erbe der Industriekultur“ geschützt. Doch was bedeutete diese Lebensform?

    Die Familien hatten ihren Wohnraum und den sozialen Nahraum im Bereich des Werksgeländes. Dadurch war der Eigentümer (und Arbeitgeber) in der Lage zu kontrollieren, wer mit welchen Botschaften an die Arbeiter_innen herantreten konnte. Schule, Ausbildung, Sportvereine und geselliges Brauchtum spielte sich in einem milieuspezifischen, überschaubaren Rahmen ab.

    Wenn wir heute von „Filterblasen“ und „Echoraum“ durch die Algorithmen lesen, scheint mir dabei die Unterschiedlichkeit von Lebenswelten noch immer nicht ins Bewusstsein gelangt zu sein.

    Simmels Kreuzung zeigt schön auf, dass wir nur mit jenen in Austausch gehen können, die wir kennen. Lebenswelten (Interessen, Weltzugänge, Werte) die uns so bekannt sind, dass wir anschlussfähig sind, finden sich als Erklärung bei Luhmann ebenso, wie die Schwierigkeit miteinander zu kommunizieren, wenn die Begriffe [4] unterschiedlich besetzt sind.

     

    Zurück zum Topic des Beitrags – was bedeutet das für die Ergebnisse der Studie?

    1. Die Jugendlichen können nur erkennen und unterscheiden, was sie als Unterscheidbar begreifen können, weil es ihnen bekannt ist.
    2. Die Intentionen derer, die Informationen bereitstellen, zu erkennen geht nur dann, wenn die Möglichkeit, dass es unterschiedliche Interessen geben könnte als solche bewusst ist.
    3. Die Generationen zuvor sind auch nicht „besser“.
    4. Es ist die auch (medien)pädagogische Aufgabe, das (kognitive) Handwerkszeug zum kritischen Diskurs zu vermitteln.
    5. Eine Aufgabe der Pädagogik besteht darin, ihr eigenes Normalitätskonstrukt kritisch zu reflektieren und sich der Vielfalt von möglichen Grenzlinien bewusst zu werden.
    6. Dies Bewusstsein sollte im Idealfall zu einer Wertneutralität führen, die nicht Toleranz mit Opfertum verwechselt, sondern die Werte, Normen und Dogmen als solche einer kritischen Betrachtung unterzieht und auf ihre kulturelle Entstehung hin betrachtet.
    7. Dies kann dazu führen, dass eine aufrichtige Wertschätzung für das „Alte[5]“ entsteht, die es dennoch nicht zwanghaft erhalten muss.
    8. Es soll dazu führen, dass die Richtung von Veränderungen durch Grundwerte der gegenseitigen Achtung gestaltet wird (analog zum Gebot der Gottes- Selbst- und Nächstenliebe, wie zu den UN Menschenrechten).

     

    Quellen und Fußnoten

    t3n 2016 http://t3n.de/news/news-werbung-internet-unterscheiden-jugendliche-769460/?xing_share=news

    [1] „Das alles ist handwerklich durchaus gut gemacht; mehrfach wurden Geschichten aus der Umschau sogar mit Journalistenpreisen ausgezeichnet. Neben Artikeln ist das Magazin prallvoll mit dem, was jeder Verlagsmanager gerne sieht: Anzeigen. Für Medikamente und Reisen, Badewannenlifte und Gedenkmünzen. Seitenpreis: rund 63.000 Euro.“

    https://www.welt.de/wirtschaft/article13815044/Der-zwiespaeltige-Erfolg-der-Apotheken-Umschau.html

    [2] Die Interessenslagen sind dabei unter Umständen sehr verschieden – und der Umgang damit ungewohnt. „Kommerzielle Kommunikation ist essentiell für unsere Wirtschaftsordnung! Daher ist jeder politische Eingriff in die Werbungbedenklich für unsere Marktwirtschaft.“ Dr. Hans-Henning Wiegmann

    Quelle: www.zaw.de, 13.03.2015. http://www.zaw.de/zaw/zitate_texte/zitat_10.php

    [3] Die entsprechenden Dynamiken finden sich z.B. bei Elias/Scotson (1965) „Etablierte und Außenseiter“ hervorragend skizziert. Die Ergebnisse lassen sich auf viele der aktuellen Marginaliserungsprozesse von Gruppen übertragen.

    [4] Nimmt man Luhmanns binären Code, so sind in den Systemen die Werte nicht nur zweipolig und stehen sich damit diametral gegenüber. Sie sind auch untereinander nicht in er Lage miteinander so zu kommunizieren, dass sie einander „verstehen“, sondern sie beziehen sich (vom Ziel) nur auf den Selbsterhalt – somit auf sich selbst. Nimmt man Watzlawick und den gemäßigten Konstruktivismus hinzu, werden die Folgen deutlich, besonders prägnant in der Geschichte vom Hammer.

    [5] In den Mythen der Welt und den Kindergeschichten, wie Hui Buh, kann das Alte aufhören zu spuken (und dem Neuen in die Suppe zu spucken), wenn es erkannt und in seinem Kontext als sinnvoll begriffen/gesehen wurde. Vielleicht wert, auf dieser Basis zu prüfen, was in unseren kulturellen Leit-Bildern alles spukt….

    Autorin: Sabine Oymanns
    Bildungswissenschafterin MA familylab-Seminarleiterin Als Seminarleiterin, Wissenschaftlerin und als Mensch liegen mir Herausforderungen am Herzen. Wie können wir mit Begrenzungen und Grenzen umgehen? Wie sagen wir Ja und Nein und was sagen wir, wenn wir uns grad nicht in der Lage fühlen uns zu entscheiden? Die Gestaltung der Interaktionen, Reflexion der Prozesse und die wertschätzende Integration der eigenen Lebenserfahrung sind für mich die Schlüssel zum Gelingen. Hierbei fließen interdisziplinäre Zugänge in meine Arbeit ein, die ich individuell mit dem Menschen vor mir auswähle.

     

    Hinweis: 
    Passend zum Thema des Beitrages findet am 9.12. um 11.00 das Webinar „Factchecking im Internet“ statt.

    Factchecking im Internet – Webinar

  • logo WerdeDigital.at

    PRIVACY WEEK – Privatsphäre im digitalen Zeitalter, Wien vom 24. bis 30.10.2016

    privacy

    Vorratsdatenspeicherung, Videoüberwachung, PRISM, Zugriff auf Konten ohne richterliche Kontrolle, Smart Meter, Änderungen im Staatspolizeigesetz und andere Maßnahmen im staatlichen Bereich und durch Privatunternehmen bedrohen unsere Privatsphäre und die Grundrechte. Daher widmet sich die PRIVACY WEEK – Privatsphäre im digitalen Zeitalter in Wien vom 24. bis 30.10.2016 diesem Thema. Ein vielfältiges Programm an Workshops, Vorträgen, Kunst- und Schulprojekten rund um das Thema „Privatsphäre im digitalen Zeitalter“ wird angeboten. Die Inhalte richten sich an ein breites Publikum, an Personen, die „nichts zu verbergen haben“ ebenso, wie an Aktivist_innen und Interessierte, die bereits intensiver mit der Materie in Berührung kamen.

  • logo WerdeDigital.at
    Blog · Eltern17. Mai 2016

    Digi4family-Buch veröffentlich

    Am 15.5. wurde das Print- und eBook „leben.spielen.lernen – Familien in der digitalen Welt“ veröffentlicht.
    Es ist bereits die dritte Publikation von WerdeDigital.at nach „Das neue Arbeiten“ sowie „Lehrende arbeiten mit dem Netz


  • Kürzlich erschienen: eBook „Lehrende arbeiten mit dem Netz“

    Am 12. November ist es im Rahmen der Interpädagogica in Linz präsentiert worden: das eBook „Lehrende arbeiten mit dem Netz“. 102 Beiträge, die von Lehrenden in Kindergärten, Schulen, Universitäten bis hin zu Erwachsenenbildungseinrichtungen geschrieben worden sind, geben Einblicke in die pädagogische Arbeit mit Neuen Medien.

    Wir wünschen uns, dass das eBook nicht nur in Österreich, sondern im gesamten deutschsprachigen Raum – es sind auch Beiträge aus Deutschland und der Schweiz enthalten – eine inspirierende und aufmunternde Quelle für erfahrene, sowie für angehende Lehrende wird.

    Das unter einer CC-Lizenz stehende Werk kann kostenlos unter bildung.werdedigital.at heruntergeladen werden.

    Wir danken der Edugroup für die gute Zusammenarbeit und dem BMBF sowie der Virtuellen PH für die Unterstützung.

    Insbesondere danken wir den 104 Autor_innen für ihre inspirierenden Beiträge!

    autor_innen


  • digi4family gestartet

    WerdeDigital.at betreut ein neues Projekt!

    digi4family ist eine Initiative des bmfj und des Fachverbands UBIT der WKO zur Steigerung der Medienkompetenz von Familien mit Unterstützung von SaferInternet.at und werdedigital.at.

    Folgende Zielgruppen sollen damit vorranging angesprochen werden:

    • Väter und Mütter
    • Jugendliche
    • Großmütter und -väter
    • Multiplikator_innen (Lehrer_innen, Elementarpädagog_innen, Jugendarbeiter_innen, Elternbildner_innen usw.)

    Am 1. Oktober starten wir auch für diese Zielgruppen mit wöchentlichen Webinaren. Ebenso ist ein eBook in Planung.

    Je bedeutender Medien im Alltag vor allem der Kinder und Jugendlichen werden, umso mehr steigen auch die Anforderungen an die Medienkompetenz von Familien. Medienkompetenz soll Eltern, Kinder und Jugendliche dazu befähigen, Medien selbstbestimmt, verantwortungsbewusst, kritisch und kreativ zu nutzen.

Zur Werkzeugleiste springen