Artikel zu Social Media

  • logo WerdeDigital.at

    NoHateSpeech ist sowas von 2016 – Dossier 3, Beitrag #9

    In der erlauchten LeserInneschaft Personen zu finden, die 2016 dem Thema Hass im Netz nicht begegnet sind, ist sehr unwahrscheinlich. Medien, NGOs und die Politik haben diesen Begriff verwendet und je nach Interessenlage mit Inhalten aufgeladen. Die Botschaft ist klar – wir sind gegen Hassrede im Internet. Doch die Mittel zum Umgang sind verschieden und die einhergehenden Herausforderungen werden sehr unterschiedlich aufgefasst. Eines hat sich schon abgezeichnet: Ohne einen Schulterschluss aller interessierten Kräfte und ohne konsequenter Bewusstseinsbildung wird diesem Phänomen nicht beizukommen sein.
    Dieser Beitrag soll einen Überblick geben und zur vertiefenden Auseinandersetzung einladen. Die gute Nachricht: Es gibt einige Initiativen, die beispielhaft vorangehen und handeln. Mein persönliches Anliegen ist eine Begriffswendung weg vom Hass, dem wir sprachlich machtlos ausgeliefert sind, hin zu einer Digitalen Courage, die uns Wege im Umgang mit dieser Netzkultur weist.

    Und jetzt doch eine kurze Begriffsdefinition: „Hate Speech ist, wenn man Worte und Bilder als Waffe einsetzt, bewusst, gezielt und voll auf die Zwölf. Wenn Menschen abgewertet, angegriffen oder wenn gegen sie zu Hass oder Gewalt aufgerufen wird, dann nennt man es Hate Speech. Oft sind es rassistische, antisemitische oder sexistische Kommentare, die bestimmte Menschen oder Gruppen als Zielscheibe haben“ (hier zu finden). Viele dieser Meldungen und Kommentare verlassen nicht nur den Pfad des guten Geschmacks sondern auch den gültigen Rechtsrahmen. Sie schaffen Zerrbilder der Realität und schrecken auch nicht davor zurück zu lügen.

    Relevanz durch Verbreitung

    Die teilweise sehr rau formulierten Meldungen sind in der Netzkultur nichts neues. Wir alle kennen die unglaublich langen Diskussionen unter Newsbeiträgen von fragwürdigen Plattformen, in denen sich Personen mal mehr, mal weniger qualifiziert unter teilweise kreativen Namen mit ebenso haarstäubenden Thesen einbringen. Doch hat sich durch die laufende Technologisierung eine neue Kultur etabliert. Netzwerke wie Facebook sind neue Verteilerzentren für Inhalte mit geringer, bis teilweise vollkommen fehlender Qualitätssicherung. Anbieter fragwürdiger Inhalte finden dort nicht nur LeserInnenschaft, sondern auch die Personen/Accounts, die zur Weiterverbreitung anregen. Gepaart mit einer stabilen Netzgläubigkeit breiter gesellschaftlicher Schichten und dem Phänomen Suchmaschine, werden neue Wahrheiten geschaffen. In manchen Fällen werden Falschmeldungen von uns sogar als lustig empfunden. Das Hereinfallen beispielsweise auf Beiträge der Satireplattform „DieTagespresse“ gehört sicher zu den Aha-Erlebnissen von durchaus aufgeklärten und kritisch lesenden Menschen. Sobald solche Falschmeldungen die Satire verlassen und von populistischen und hetzerischen Strömungen genutzt werden, verlieren die Postings ihre Leichtigkeit und werden zu veritablen politischen Problemen.

    Make your own Media – Hass ist keine Meinung

    Wenn es zu einem Thema noch keinen Newsfeed gibt, wird eben einer geschaffen. Die Medienanbieter verfolgen teilweise das Interesse Unzufriedenheit in der Gesellschaft zu streuen. Abseits der Verwirrung durch Fehlinformation, lässt sich mit erfolgreichen „Falsch“-Meldungen sogar Geld verdienen. Im amerikanischen Wahlkampf wurde sichtbar, dass die Inhalte einerseits als politisches Wahlkampfmittel verwendet, andererseits aber auch aus rein monetären Interessen verbreitet wurden. Die VerbreiterInnen solcher Falschmeldungen überlegen nach den Hasskampagnen gegen PolitikerInnen als nächstes Thema Gesundheit und Ernährung zu nutzen, um Geld zu verdienen. Somit entstehen Inhalte, die bewusst politisch, oder rein nach kommerziellen Interessen geschaffen werden. In trauter Einigkeit mit Facebook, Twitter, Google & Co werden diese Meldungen meinungsbildend und bedrängen den klassischen Journalismus. Also wem noch vertrauen? Viele zivilgesellschaftliche Initiativen versuchen parallel zum Qualitätsjournalismus diese Contentbrille anzubieten – entweder durch Meldesysteme, oder durch Sensibilisierung.

    mimikama Meldeplattform
    Österreichisches Rotes Kreuz
    Mauthausen Komitee
    Neue deutsche Medienmacher
    #aufstehn
    Zara
    Amadeu Antonio Stiftung
    Bundestrollamt für gegen Hass im Netz

    Die Sprache ist das Werkzeug

    Erschreckend ist die ungewohnte Sprache mit oft vereinfachten Botschaften und teilweise infamen Lügen in den Texten. Die in solchen Diskussionen gelernte, bzw. gelesene Sprachkultur wirkt sich direkt und indirekt auf den Austausch in diesen Netzwerken aus. Plötzlich werden Worte und Formulierungen salonfähig, die entweder vorher noch niemand kannte, oder so nie über die jeweiligen Lippen gekommen wären.

    Die Hassrede ist in der Geschichte ein viel verwendetes Mittel. In der Antike ist sie ebenso zu finden, wie im Sprachgebrauch eines Nationalsozialistischen-Regimes. Es ist ein stetiger Versuch die Sprache zu verändern, radikale Formulierungen zu etablieren. „Die so veränderte Sprache bleibt nicht immer nur in der Dimension des Textes stehen, Sprachentgleisungen schreiten nicht einfach nur unbegrenzt fort, an ihrem Höhepunkt angelangt bereiten sie vielfach eine neue Dimension vor, jene, in der die Tat in der Lage ist, das Wort zu überschreiten.“ (näheres auch bei Dr. Paul Sailer-Wlasits).

    Es gilt auf die Verwahrlosung der Sprache hinzuweisen, es heißt diese Sprache selbst nicht zu verwenden, es heißt selbst Übersetzungen zu verwenden und Medien darauf aufmerksam zu machen, wenn sie in die Falle dieser einfachen Sprache tappen.

    Der Algorithmus ist ein Hund

    Ingrid Brodnig (Profiljournalistin und Buchautorin) hat in einem Beitrag darauf hingewiesen, dass jegliche Aufmerksamkeit für Inhalte durch Kommentieren, Liken und Teilen, automatisch deren Verbreitung fördern. Egal, ob es sich um eine positive, oder negative Auseinandersetzung handelt. Diese Sichtweise schlägt einen sehr radikalen Umgang mit negativen Meldungen vor – einfach ignorieren ist die Devise. Der Algorithmus ist das größte Geheimnis aller Community-Anbieter. Solange es um die Vorliebe der UserInnen für Katzen, Bergfotos, oder Landschaftsbilder geht ist die Idee der BetreiberInnen durchaus sinnvoll. Sobald es jedoch in Richtung politischer Meinungsbildung geht zeigt das Konzept Lücken. Eines ist klar: Die Systeme zielen darauf ab allen BenutzerInnen die Inhalte zu zeigen, die sie potentiell interessieren. Das bedeutet in der momentanen Ausprägung den Ausschluss alternativer Meinungen – somit anders denkender Menschen im eigenen Netzwerk. Hier sind die Plattformen und ProgrammiererInnen gefragt neue Lösungen anzubieten. Ohne der aktiven Veränderung dieser digitalen Echokammern ist es auch für versierte NetzbenutzerInnen schwer ein objektives Meinungsbild zu erhalten.

    Moderation zählt

    Die neu gewonnene Freiheit im Meinungsaustausch heißt Page, Forum, Gruppe etc. Durch Shitstorms haben auch die überzeugtesten VerteidigerInnen einer Idee die Lust verloren sich an Diskussionen zu beteiligen. Das Wort Troll (der mit provokanten Meldungen seine Angel auswirft und wartet wer anbeißt) alleine genügt nicht mehr. Wir sprechen auch von Glaubenskriegern, die für ihre Idee in den Diskussionen mit allen Mitteln eintreten. Neben dem Versuch den Personen eine Typologie zu geben, hat sich dadurch eine ganz neue Form der Moderation entwickelt. Alles nicht dem gesellschaftlichen Rahmen entsprechende wird ausgeblendet – also für LeserInnen nicht mehr sichtbar gestellt. Das bedeutet den Verlust der Leichtigkeit von diesen freien Diskussionsorten. In größeren Strukturen ist es ohne dieser neuen Dienstleistung nicht mehr möglich lesbare Diskussionen zu führen. Umgekehrt wird es von einigen Gruppierungen auch genutzt, um konkrete Stimmung in eine Richtung zu betreiben. Plötzlich bleiben teilweise bedenkliche Inhalte lesbar und beschwichtigende, relativierende Beiträge werden gelöscht (nachzulesen am Beispiel von Claus Schwertner)

    Politischer Wille ist gefragt

    Mit wenigen Ausnahmen hat die Politik das Phänomen erkannt. Die Problemlösungsansätze unterscheiden sich. Das Ziel ist in den meisten Fällen dasselbe – den negativen Trend umzukehren. Eine Europaratskampagne mit dem klingenden Titel „No Hate Speech Movement“ hat es sich zur Aufgabe gemacht zu informieren und zu sensibilisieren. Durch Länderinitiativen begleitet werden so neue Inhalte geschaffen, die der Radikalisierung entgegentreten, die rechte Hetze im Netz aufzeigen und der Aufgabe, ein Meldewesen zu etablieren, nachkommen. In der von Mario Lindner (ehem. Bundesratspräsident) initiierten Enquete #DigitaleCourage ist in vielen ExpertInnenbeiträgen augenscheinlich geworden, dass es abseits der stetigen Sichtbarmachung von Hass eine Bewegung braucht, die nicht gegen etwas, sondern auch für etwas eintritt. Also von der Machtlosigkeit des Hassbegriffs zu einer couragierten Empfehlungskultur führt. Bildungsministerin Hammerschmid stärkt für 2017 noch den Begriff der Digitalen Kompetenz mit dem theoretischen Modell ein eigenes Schulfach daraus zu machen. Im Bereich Netzkultur gibt es aus vielen Ministerien sehr konkrete Ansagen und Angebote. Im letzten Jahr haben sich abseits der bisher genannten auch Bundeskanzler Kern, die zuständige Staatssekretärin Muna Duzdar, die Familienministerin Sophie Karmasin, die Frauenministerin Sabine Oberhauser, der Justizminister Wolfgang Brandstetter mit durchaus interessanten Ideen zu Wort gemeldet. Die breite Einigkeit, dass es ein juristisches und gesellschaftliches Phänomen ist, lässt hoffen, dass in diesem Themenkomplex ressortübergreifend agiert wird.

    Sagen wir 2017 doch #DigitaleCourage

    Abschließend mein Plädoyer für eine Änderung im eigenen Sprachgebrauch. Der Fachterminus „Hassposting“ und „Hass im Netz“ scheint so in Stein gemeisselt, dass daran nicht zu rütteln ist. Alleine beim Schreiben dieses Beitrags wurde mir wieder bewusst wie kompliziert es wird, nicht die erwähnten Worte zu verwenden und trotzdem auf die Schwere dieses Themas hinzuweisen (ich habe deshalb die Worte auch nicht konsequent vermieden). Sobald eine vertiefende Diskussion stattfindet, ist festzustellen, dass nicht mehr nur von Hass, sondern in einer fast militärischen Diktion von Verteidigung, Kampf gegen Hasspostings, Krieg im Internet etc. gesprochen wird. Ich bin der festen Überzeugung, dass wir an unserem eigenen Umgang mit dem Thema arbeiten müssen und den Sprachgebrauch (vor allem gegenüber den Medien) ändern müssen. Lassen Sie uns von Digitaler Courage sprechen, lassen Sie uns die positiven Erlebnisse hervor streichen und schaffen wir Vorbilder wie es anders geht.

    Bei einem von Staatssekretärin Muna Duzdar eingeladenen Netzwerktreffen äußerten viele TeilnehmerInnen den Wunsch nach guter Vernetzung, objektiver Information und finanzieller Unterstützung beim Aufbau zivilgesellschaftlicher Projekte für eine positive Netzkultur und für eine Bewusstseinsbildung, die mit Verantwortung mit dem Betrieb von eigenen Onlineplattformen verbunden ist. Dieses Thema verlangt viel Aufmerksamkeit und geht durch alle Gesellschaftsschichten, Alterskohorten und Bildungsbiografien. Diesen Wünschen kann ich mich nur anschließen.

    Christian Kern hat seine Position im Plan A unter dem Titel Hass ist keine Meinung mit den Kernforderungen: Verstärkung und Förderung zivilgesellschaftlicher Aktivitäten, Medienrecht auch für Foren und Social-Media-Plattformen, Verbesserung der Ahndung von strafrechtlich relevanten Delikten, Beratung und Hilfe für betroffene und verunsicherte NutzerInnen zusammengefasst und lädt zur aktiven Mitgestaltung ein.

    Abschließen möchte ich mit einer Aufforderung des Bundestrollamtes:
    Lassen Sie nicht zu, dass in unserem wunderschönen Cyberraum aus Nullen und Einsen, die Nullen das Sagen haben. Hass ist keine Meinung – machen Sie mit, laut und freundlich.

    Weitere noch nicht erwähnte Links:

    Grünbuch Digitale Courage
    10 Tipps gegen Hass im Netz
    Safer Internet

    Bio:
    Helmuth Bronnenmayer ist Unternehmer in Wien und berät im Bereich Digitale Kommunikation. Politisch engagiert er sich für Open Data und hat gemeinsam mit dem Bundesratspräsidenten Mario Lindner den Themenschwerpunkt Digitale Courage initiiert.

  • logo WerdeDigital.at

    Widewide wie sie mir gefällt… – Dossier 3, Beitrag #7

    Personalisierung ist eine tolle Sache. Sie ermöglicht, neue Informationen auf der Basis unserer bisherigen Aktivitäten zu erhalten. Durch sie entsteht auch das Phänomen der „Filterbubbles“, das dazu führen kann, dass wir uns intellektuell isolieren.

    Das Internet ist mit ambitionierten Zielen gestartet: Dezentral, keine Hierarchien, freie Information für Alle. Social Media versprach uns mehr Partizipation, mehr Eigenverantwortung und Meinungsvielfalt. Die digitale Revolution versprach: „Jeder ist Sender und Empfänger gleichzeitig“.

    Und diese Revolution ist eingetreten, denn die Eintrittsbarrieren, um zu publizieren und weltweit zu senden, sind mittlerweile äußerst gering: Man benötigt lediglich einen Computer mit Internetzugang, um auf einem Blog oder bei Facebook zu publizieren; Man benötigt nur ein aktuelles Smartphone und ist damit in der Lage, einen eigenen YouTube-Kanal zu betreiben und potentiell Milliarden an Menschen zu erreichen. Und das sogar in Echtzeit.

    Und diese Möglichkeiten der Medienproduktion und der Kommunikation wird eifrig genutzt. So werden zum Beispiel täglich auf YouTube oder Facebook Videos mit einer Gesamtdauer von mehreren hundert Millionen Stunden wiedergegeben und Milliarden Aufrufe generiert. In Facebook sind täglich über eine Milliarde User aktiv und posten Inhalte.[1] [2]

    Filtern von Informationen ist eine Notwendigkeit

    Diese Informationsflut führt zur Notwendigkeit, die Inhalte zu strukturieren und zu filtern – Ein Vorgang, der übrigens nicht neu ist. Als im 16ten Jahrhundert durch das Aufkommen des Buchdrucks erstmals viele Informationen unterschiedlicher Art publiziert wurden, begann man, Seitennummerierungen, Registereinträge und Querverweise einzuführen, um den Informationsfluss unter Kontrolle zu bringen. Heute müssen Inhalte im Web müssen für eine sinnvolle Nutzung ebenfalls gefiltert und sortiert werden. Suchmaschinen wie Anbieter sozialer Medien versuchen dabei an Hand von Algorithmen zu beurteilen, was für uns zum jeweiligen Zeitpunkt „relevant“ ist. Google oder Bing versuchen aus der Suchanfrage und weiteren Informationen über den Benutzer und die Qualität der im Index der Suchmaschine bereitgestellten Websites die passende Sortierung zu liefern.

    In sozialen Netzwerken wie Facebook wird jede einzelne Informationseinheit, jedes Posting analysiert und bewertet: Wie aktuell ist der Beitrag? Wie ist das Beziehungsverhältnis zwischen der Person, die postet und der Leserin oder dem Leser? Worum geht es? Welche Medieninhalte gibt es? So erhält die Fotogalerie zur Hochzeit des Cousins vor zwei Wochen dadurch mehr Relevanz als das Foto vom heutigen Mittagessen der Kollegin. Zusätzlich wird der Grad der Interaktion als Bewertungskriterium herangezogen: Was häufig und viel geliked und geteilt wird, wird häufiger angezeigt.

    Deshalb sind die Inhalte, die uns in unseren „Social Newsfeeds“ präsentiert und angezeigt werden, noch viel stärker von unserem Verhalten bzw. der Einschätzung unseres Verhaltens durch die jeweiligen Anbieter geprägt, als bei der Sortierung von Suchergebnissen.

    Dies führt zum Begriff der „Filterbubble“.

    Dieser Begriff wurde vor einigen Jahren vom amerikanischen Internetaktivisten Eli Pariser in seinem gleichnamigen Buch geprägt[3] und beschreibt die Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers entsprechen. Wir umgeben uns nur mehr mit Informationen, die unserem Weltbild entsprechen und unsere Meinung widerspiegeln.

    Selbstverständlich unterstützen die verwendeten Algorithmen diesen Effekt: Dort, wo ich unter Gleichgesinnten bin, halte ich mich gerne auf. Dies passiert auch nicht uneigennützig für die Betreiber: Wer länger auf Facebook, YouTube oder Google unterwegs ist, konsumiert auf diesen Plattformen mehr an Werbung. Und davon profitieren die Inhaber.

    Doch der Effekt ist nicht neu und schon gar keine Erfindung des Internet. In der „realen Welt“ werde ich mich bei der Wahl der Medien, die ich konsumiere, an meinem Weltbild orientieren, bei der Ausübung meiner Hobbies verbringe ich mehr Zeit unter Gleichgesinnten und am Stammtisch im Gasthaus finden sich als Gesprächspartner auch leichter Menschen mit ähnlichen Meinungen zu einem Gespräch zusammen.

    Die tatsächlichen Auswirkungen dieses Filterblaseneffekts sind umstritten, da es erst wenige Untersuchungen gibt. Erste empirische Studien – wie zB die Auswertung von 50.000 Browserverläufen amerikanischer User durch die Universität Oxford[4] oder eine Studie amerikanischer Datenwissenschaftler mit Milliarden an [5]- zeigen einen sehr geringen Einfluss auf unsere Meinungsvielfalt. Auch wenn für manche Menschen Facebook zu einem Hauptkanal für Informationen geworden sein mag: Es wird bei kaum jemand die einzige Informationsquelle sein.

    Oberflächlichkeit und Aufmerksamkeitsdefizite

    Doch MedienkritikerInnen beurteilen das anders und beschwören nahezu den Untergang der Menschheit durch die Nutzung sozialer Medien und das Internet an sich herbei.

    Der amerikanische Autor Nicholas Carr meinte vor einigen Jahren, dass unser Denken durch die Nutzung des Internets verflacht, da man immer weniger in die Tiefe von Texten eintaucht und stattdessen nur mehr schnell und oberflächlich durch das Netz bewegen.[6] In einem 2013 erschienen Essay meint er, dass Wikipedia nur „ein blasser Abglanz der Britannica“ sei und kritisiert die Qualität von benutzergenerierten Inhalten.[7]

    Sherry Turkle, eine amerikanische Soziologin und Medienkritikerin meinte „Das Internet hat uns vieles gebracht. Leider auch die Möglichkeit, nicht zu denken.“ Sie vertritt die Ansicht, dass wir „Alone Together“ sind: Mit vielen vernetzt, aber doch einsam. Dass wir uns durch unsere Aktivitäten in sozialen Netzwerken nach dem Motto „Ich teile, also bin ich“ definieren.[8]

    Carr geht jedoch von Selbsterfahrung aus und berücksichtig nicht, dass sich auch die Arbeitswelt geändert hat, oder dass der Umgang mit einem neuen Medium auch neue Nutzungsverhalten bedingt. Turkle berücksichtig nicht, dass sich ein Großteil der User in sozialen Netzwerken passiv verhält oder es für viele einfach leichter ist, Gesagtes zu wiederholen.

    Medienkritik ist so alt wie die Kommunikation selbst. Und mit jedem neuen Medium gerät ein Gefüge alter Medien und deren Nutzungspraktiken durcheinander. Auch wenn das „World Wide Web“, wie wir es heute kennen und verwenden bald 20 Jahre alt ist und Facebook kürzlich seinen dreizehnten Geburtstag gefeiert hat: Für viele Menschen ist die Nutzung noch immer ein gewisses Neuland, das erst entdeckt werden muss.

    Auch die aktuellen Diskussionen rund um Themengebiete wie „Hasspostings“ oder den sogenannten „Fake News“ zeigen, dass sich die Gesellschaft erst orientieren muss. Es wird schon das „postfaktische Zeitalter“ heraufbeschwört, wo wir uns nur mehr an Emotionen orientieren und Fakten ignorieren – Doch krude Verschwörungstheorien gab es schon vor dem Fernsehen und Boulevardmedien, die sich „flexibel“ in der Interpretation von Fakten verhalten, sind ebenfalls keine Erfindung des Internets.

    Eigenverantwortung der User

    Das Großartige am Web: Die Offenheit und Möglichkeit der Partizipation. Soziale Medien und das Internet per se ermöglichen es, andere Perspektiven einzunehmen, und sich so in die Situation und das Meinungsbild eines rechtsradikalen Studenten aus Berlin, einer Austauschstudentin in Südafrika oder einem mexikanischen Unternehmer zu versetzen.

    Die große Menge an Informationen und Meinungen zu filtern und zu sortieren ist jedoch eine Notwendigkeit. In den klassischen Medien sorgen JournalistInnen als „Gatekeeper“ für das vorsortieren und bewerten; in den „neuen Medien“ verlagert sich diese Aufgabe hin zu dem einzelnen Benutzer. Jeder ist sein eigener Gatekeeper. Mit dem Risiko, sich zu einseitig zu informieren.

    Aber was wäre die Alternative zu dem Problem der „Filterbubble“? Ein identer Informationskanal für alle Benutzer? Eine standardisierte Meinung zu Themen wie Migration, Politik, Wissenschaft, Sport, Bildung? Und wer entscheidet bei sozialen Netzwerken dann darüber, welche Inhalte zulässig sind und welche nicht?

    Facebook, Twitter und andere soziale Plattformen sind keine Medienunternehmen im Sinne einer Zeitung, denn die Inhalte kommen von den Nutzern selbst. Die Betreiber dieser Plattformen für die Inhalte haftbar zu machen wäre in etwa so, als würde man den Hersteller des Fernsehers dafür verantwortlich machen, welche Inhalte in der Nachrichtensendung gezeigt werden, statt der zuständigen Redakteure.

    Was es daher braucht: Eine starke Förderung der Medienkometenz.

    ________________________________________
    [1] https://www.youtube.com/yt/press/de/statistics.html
    [2] https://techcrunch.com/2016/01/27/facebook-grows/

    [3] Eli Pariser: The Filter Bubble: What the Internet Is Hiding from You. Penguin Press, New York, 2011, ISBN 978-1-59420-300-8; Ted-Talk zum Thema: https://www.youtube.com/watch?v=B8ofWFx525s

    [4] http://poq.oxfordjournals.org/content/early/2016/03/21/poq.nfw006.short

    [5] http://science.sciencemag.org/content/early/2015/05/06/science.aaa1160

    [6] Nicholas Carr: The Shallows: What the Internet is Doing to Our Brains, ISBN 978-0393339758

    [7] Nicholas Carr: The amorality of Web 2.0, http://www.roughtype.com/?p=110
    [8] Sherry Turkle, Alone Together: Why We Expect More from Technology and Less from Each Other, ISBN 978-0465031467; Ted-Talk https://www.ted.com/talks/sherry_turkle_alone_together

    Bio:

    Jürgen Haslauer ist seit 1993 im Bereich digitaler Medien und Kommunikation tätig. Er erarbeitet Online-Strategien für Unternehmen und unterstützt sie bei deren Umsetzung. Als Mitglied des Chaos Computer Club Wien (https://c3w.at), der sich dem kritischen Umgang mit elektronischen Medien widmet, hat er 2016 die „Privacy Week“ initiiert, eine Veranstaltungsreihe zum Thema Privatsphäre im digitalen Zeitalter.

  • logo WerdeDigital.at

    Wie unterscheide ich wahr von falsch? – Dossier 3, Beitrag #3

    Falsche Accounts von Politiker_innen und Prominenten, gefälschte Krisenpropaganda, manipulierte Bilder oder frei erfundene Meldungen machen im Netz immer wieder die Runde. Wie man Fakes und Hoaxes – Falsch- und Scherzmeldungen – erkennt.

    Das Jahr 2016 war kein gutes für die Wahrheit. Egal, ob in der Brexit-Diskussion oder in den Präsidentschaftswahlkämpfen in Österreich und den USA: Noch nie gab es ein so hohes Maß an Falschinformation. Und das in allen Schattierungen: Von der mehr oder weniger klar erkennbaren Satire, über dramatisierte, um Klicks buhlende Clickbait-Überschriften, irreführende, weil bewusst unvollständige Informationen, über Bildfälschungen, Lügen bis hin zur frei erfundenen Meldung war alles dabei. Bot-Accounts – automatisiert betriebene Präsenzen in z.B. Facebook oder Twitter haben diesen Inhalten zu noch größerer Reichweite verholfen.

    Besonders besorgniserregend: Es gibt inzwischen eine Reihe von Leuten, die Fake-News zum Geschäftsmodell erkoren haben, weil sie durch die vielen Klicks viel Geld mit Anzeigen verdienen können. Leider gab es auch immer wieder Fälle, in denen professionelle Journalisten auf solche Falschmeldungen hereingefallen sind. Vor diesem Hintergrund gilt für Journalismus im Netz mehr denn je der alte Grundsatz der Nachrichtenagentur United Press International: „It’s good to be first, but first you have to be right.“ Die journalistische Sorgfaltspflicht ist besonders wichtig, um nicht auf Fälschungen hereinzufallen. Bei Fälschungen geht es meistens entweder um falsche Identitäten und/oder um falsche Inhalte.

    Falsche oder irreführende Identitäten entdecken

    Im Netz, speziell auf sozialen Netzwerken, ist es ein Kinderspiel, sich als jemand auszugeben, der man nicht ist. Ein Foto ist schnell geklaut, der Nutzername auch, fertig ist der Fake-Account. Gerade bei prominenten Personen ist das häufig der Fall. So gibt es auf Twitter zig Angela Merkels, aber keine einzige davon ist die echte.
    Inzwischen haben Facebook und Twitter so genannte verifizierte Accounts eingeführt: An einem weißen Haken auf blauem Grund ist erkennbar, dass es sich tatsächlich um den Account der prominenten Person oder Institution handelt. Die Netzwerke haben in diesem Fall selbst die Identität überprüft. Wenn dieser weiße Haken fehlt, heißt das aber noch nicht automatisch, dass es sich um ein Fake-Profil handelt. Es gibt auch echte Profile, die eben noch nicht von den Betreibern der Social Networks verifiziert wurden. Manchmal kann eine einfache Google-Suche nach Berichten über einen Fake-Account schon helfen. Doch es gibt noch weitere Möglichkeiten, Original und Kopie voneinander zu unterscheiden:

    • Der Nutzername kann ein erstes Indiz liefern: Wenn er erkennbar ironisch ist oder eine hohe Zahl wie „Angela Merkel 23“ hat, ist oft schon klar, dass hier ein „Spaßvogel“ am Werk ist.
    • Das gleiche gilt für unvorteilhafte Profilfotos. Die PR-Berater von Promis achten immer auf ansehnliche, gut inszenierte (Profil-)Fotos.
    • Die Selbstbeschreibung eines Profils lohnt einen Blick. Manchmal steht hier, dass es sich um einen Parodie-Account handelt. Manchmal klingt aber auch an dieser Stelle alles offiziell und täuschend echt.

    Selbst ein Website-Link entlarvt einen Fake-Account noch nicht eindeutig. Ein falscher Account kann ja immer noch den Link zur richtigen Website setzen. Hier lohnt der umgekehrte Check: Gibt es auf der Website von www.bundesregierung.de einen Link zum entsprechenden Social-Media-Profil? Aber selbst eine Website kann man fälschen. Falls es hier Zweifel gibt, lohnt eine „Who-Is“-Abfrage, d.h. Eine Auskunft, wer eine Website registriert hat. Für .at-Domains http://nic.at/ zuständig. Um zu erfahren, wie die Registrierungsstelle für Top Level Domains anderer Länder heißt, hilft der Who-Is-Service der Internet Assigned Numbers Authority (IANA) weiter. Für Top-Level-Domains, die keinerlei Rückschlüsse auf das Ursprungsland zulassen wie etwa .com, gibt es internationale Who-Is-Verzeichnisse wie www.whois.com/whois/.

    Ein weiteres Beispiel für Irreführung ist die Website bundespraesidentschaftswahl.at. Wer „Bundespräsidentenwahl Österreich“ googelt, bekommt die Seite als einen der ersten Treffer angezeigt. Auf den allerersten Blick wirkt die Seite offiziell mit Bildern der Hofburg, der rot-weiß-roten Fahne und sachlichen Begriffen in der Navigation wie „Bundespräsidentenwahl 2016“, „Briefwahl“, „Ergebnisse“, „Wahlrecht“ etc. Da könnte man meinen, auf einer Regierungs-Seite gelandet zu sein. Bei einem Blick auf den Vergleich der Wahlprogramme der beiden Kandidaten merkt man dann, dass FPÖ-Kandidat Hofer in positives Licht gerückt wird, während Alexander van der Bellen hier meist schlecht wegkommt („Drückeberger“ bei der Frage nach dem Grundwehrdienst). Im Impressum stößt man auf den Namen Robert Marschall und wer den googelt, findet heraus, dass es sich um den Obmann der EU-Austrittspartei handelt. Politisch steht er Norbert Hofer offensichtlich viel näher als Alexander van der Bellen. Hier liegt also die Vermutung nahe, dass er Hofer mit der Seite unterstützen will. Wenn man weiß, wer hinter einer Website steckt, kann man sich Gedanken über die Interessen machen, die der- oder diejenige mit der Seite bzw. einer bestimmten Meldung bezweckt.

    Vorsicht bei spektakulären Inhalten von unbekannten Absendern

    Es gibt natürlich auch Fälle, in denen nicht die Prominenz des Absenders im Mittelpunkt steht, sondern der Inhalt brisant oder interessant ist. Wie erkenne ich nun, ob der Absender eine vertrauenswürdige Quelle ist und die Inhalte stimmen? Auch hier lohnt ein Blick auf die Profilinformationen.
    Jede weitere Information über den Absender ist wertvoll:

    • Hat er eine eigene Website, ein Blog, Profile in sozialen Netzwerken?
    • Wer steht dort jeweils im Impressum?
    • Steckt eine Organisation oder eine Lobby dahinter? Wenn ja, welche?
    • Geben diese Präsenzen ein stimmiges Gesamtbild, sprich: Ist ein inhaltlicher Schwerpunkt und eventuell eine Expertise erkennbar?

    Wenn ein Post nach breaking news klingt, thematisch aber gar nichts mit dem sonstigen Schwerpunkten zu tun hat, ist Vorsicht geboten. Das gleiche gilt, wenn ein Profil sehr jung ist und gleich mit Insider-Informationen aufwartet. Hier liegt der Verdacht nahe, dass das Profil eigens geschaffen wurde, um Falschinformationen zu verbreiten.

    Aufschlussreich kann ein Blick auf die Gefolgschaft des Accounts im jeweiligen sozialen Netzwerk sein. Hat er sehr viele oder sehr wenige Follower? Noch wichtiger: Folgen ihm bekannte und verifizierte Accounts? Natürlich ist das keine Garantie, aber es ist doch unwahrscheinlich, dass gleich mehrere arrivierte Accounts einem unseriösen Account folgen.

    Besonders skeptisch sollte man auch sein, wenn der Inhalt zu gut oder zu spektakulär klingt, um wahr zu sein. Etwa die vermeintliche App „Rumblr“, mit der man sich angeblich zu einem Straßenkampf verabreden konnte. Im Zweifelsfall sollte man immer versuchen, Kontakt zum Urheber der fraglichen Information aufzunehmen. Wenn ein Anruf nicht möglich ist, weil sich keine Telefonnummer recherchieren lässt, sollte man den Urheber direkt im Netzwerk ansprechen oder eine Mail mit der Bitte um Kontaktaufnahme oder Übermittlung einer Telefonnummer schicken. Je nach Standort von Urheber und Journalist ist unter Umständen sogar eine persönliche Begegnung denkbar.

    Wenn jemand eine spektakuläre Information über eine bekannte Person oder Institution verbreitet, ist es am besten, bei dieser Person oder Institution direkt nachzufragen, ob die Information zutrifft. Falls das alles nichts fruchtet, gilt: Lieber die Finger davon lassen und nicht darüber berichten. Es bringt nichts, eine unbestätigte Information mit dem Hinweis, dass sie eben noch nicht verifiziert werden konnte, weiter zu kolportieren. Zu groß ist die Gefahr, dass ein Großteil der Leser_innen den Inhalt eben doch für bare Münze nimmt. Der journalistischen Glaubwürdigkeit erweist man damit einen Bärendienst.

    Auch bei Bildern ist Vorsicht geboten. Gerade weil ihnen noch immer Beweiskraft zugesprochen wird. Dabei sind Bildern sehr leicht zu manipulieren. Oder aber Bilder werden nicht manipuliert, aber in einem vollkommen fremden Kontext verwendet, oft mit der Absicht, sie für eigenen Zwecke zu instrumentalisieren. Hier kann eine umgekehrte Bildersuche („Reverse Image Search“) Wunder wirken: Dazu lädt man auf Seiten wie tineye.com ein Bild hoch (oder gibt nur die URL des Bildes ein) und sortiert nach Datum. Oft wird so klar, dass ein Bild schon viel älter ist als behauptet wird, also nicht wirklich was mit dem kolportierten Ereignis zu tun hat. Auch Metadaten von Bildern können sehr aufschlussreich sein.

    Als Gegenbewegung zu den vielen Halb- oder Unwahrheiten haben sich eine Reihe von Fact-Checking-Seiten gebildet: politifact.com untersucht in den USA seit Jahren Politiker-Statements auf ihren Wahrheitsgehalt. hoaxmap.org dokumentiert in Deutschland Falschmeldungen und Gerüchte über Asylbewerber. In Österreich hat sich in den vergangenen Jahren vor allem mimikama.at einen Namen unter den Fact-Checking-Seiten gemacht. mimikama berichtet über aktuelle Fakes und macht diese Berichte über hoaxsearch.com durchsuchbar. Außerdem gibt die Seite Tipps, wie man Fake-News erkennt und gibt diese Tipps auch in Webinaren weiter. Eine große Rolle bei der Verbreitung der Aufklärung über jede Form von Internetmissbrauch spielen die Social-Media-Kanäle, speziell Facebook. Dort ist Mimikama unter dem Namen „Zuerst denken, dann klicken“ aktiv und hat mehr als 660.000 Follower. Für seine unermüdliche Aufklärungsarbeit war Mimikama 2016 für den klicksafe Preis des deutschen Grimme-Instituts nominiert.

    Politik sorgt sich um Qualität der Debattenkultur

    Auf dem Feld der Wahrheitsfindung gibt es also viel zu tun. Ein Ansatz ist Prävention durch Wissen. Während in Deutschland gerade wieder die Diskussion hochkocht, ob Medienkompetenz ein eigenes Schulfach werden soll oder es als Querschnittsthema in verschiedenen Fächern stärker beleuchtet werden soll, ist Österreich hier schon weiter. Seit 2012 gibt es einen Grundsatzerlass zum Unterrichtsprinzip Medienerziehung. Medienkompetenz taucht auch in Lehrplänen von Grundschule, Mittelschule und allgemein bildenden höheren Schulen auf.

    Die Schwemme von Fake-News auf Facebook hat dazu geführt, dass Spitzenpolitiker Facebook zum Gegensteuern aufrufen. Bundeskanzler Kern bemängelte jüngst die fehlende inhaltliche Verantwortung Facebooks für „Manipulationsmöglichkeiten und politischen Einfluss“. Neben Falschinformationen sieht er auch Beleidigungen als großes Problem und fordert einen EU-weiten Regulierungsrahmen für Facebook, aber auch für Google.

    Ohne Facebook und Google namentlich zu erwähnen, hat die deutsche Bundeskanzlerin Angela Merkel auf den Medientagen München 2016 mehr Transparenz für Algorithmen gefordert: „Ich persönlich bin dabei auch der Meinung, dass Algorithmen transparenter sein müssen, sodass interessierten Bürgern auch bewusst ist, was eigentlich mit ihrem Medienverhalten und dem anderer passiert.“ Hintergrund ist die gesellschaftliche Debattenkultur: Speziell der Facebook-Algorithmus bevorzugt Inhalte, die oft geteilt, geliked und kommentiert werden. Besonders häufig ist das bei emotionalisierten und dramatisierten Inhalten der Fall. Und beim Emotionalisieren und Dramatisieren bleibt von der Wahrheit oft nicht mehr viel übrig. Oder noch schlimmer: Frei erfundene Inhalte mit sensationsheischender Überschrift werden viral und verbreiten sich ähnlich einem Krankheitserreger. Facebook-Chef Mark Zuckerberg will keine Verantwortung übernehmen. Er hat nach der US-Wahl die Unterstellung, dass Falschmeldungen auf Facebook „die Wahl in irgendeiner Weise beeinflusst“ hätten, als „ziemlich verrückt“ zurückgewiesen. Der Politik hat auf diesem Feld also nur einen begrenzten Einfluss. Um so wichtiger ist für alle Netznutzer_innen die Kompetenz, arg zugespitzte Inhalte auf ihren wahren Kern hin zu beleuchten. Und zwar bevor man auf den Teilen-Button geklickt hat. Wie formuliert es Mimikama so schön: Zuerst denken, dann klicken.

     

    Autor
    Bernd Oswald ist freier Medienjournalist, Trainer und Trendscout im digitalen Journalismus. Er interessiert sich für die Weiterentwicklung des Journalismus an der Schnittstelle zwischen Redaktion, Programmierung und Design. Deswegen hat er Hacks/Hackers München mitgegründet, wo Journalisten, Programmierer und Designer neue Formate diskutieren und konzipieren. Zu diesen Themen twittert er als @berndoswald und bloggt zudem auf www.journalisten-training.de. Eine Auswahl seiner Arbeitsproben präsentiert er auf seinem Torial-Profil.

  • logo WerdeDigital.at

    Die Gefahren durch Social Bots – Dossier 3, Beitrag #2

    Social Bots stellen durch die Einflüsse, die sie bewirken können, eine Gefahr für die Demokratie dar. Was genau sind Social Bots? Welche konkreten Gefahren können von ihnen ausgehen, auch für Österreich? Und was kann dagegen unternommen werden?

    Was sind Social Bots?

    Ein Bot (von Robot) ist ein Computerprogramm, dass je nach Vorgabe seines Programmierers bestimmte, sich wiederholende Aufgaben erledigt. Mit dem Zusatz Social werden Bots bezeichnet, die in vorzugsweise sozialen Netzwerken wie Facebook, Twitter oder Instagram agieren. Sie versuchen meist, ihre Identität zu verschleiern, wollen weitestgehend menschlich erscheinen, wie echte Nutzer.
    Dabei ist der Grundgedanke hinter Social Bots vollkommen harmlos und legitim: Sie sind sehr hilfreich, wenn es beispielsweise darum geht, mit vielen Nutzern sozialer Netzwerke in kurzer Zeit zu interagieren, spezifisch nach der gewünschten Zielgruppe Beiträge zu erstellen oder Follower regelmäßig auf neue Publikationen hinzuweisen. So haben zum Beispiel die Blogger von netzpolitik.org einen Social Bot programmiert, der regelmäßig prüft, ob auf der eigenen Website ein neuer Beitrag veröffentlicht wurde. Der Bot postet anschließend jeden Beitrag automatisch auf Twitter. Er nimmt also potenzielle Arbeit ab.

    Es ist sehr einfach, einen Social Bot zu erstellen. Für Twitter benötigt man einen Nutzeraccount, einen Zugang zur automatisierten Schnittstelle (API) des sozialen Netzwerks und ein Programm, das in der Lage ist, einen Account automatisiert steuern zu lassen. Außerdem gibt es zahlreiche Anleitungen im Internet, die auch für Laien das Programmieren von Bots so einfach wie möglich gestalten sollen.

    Welche Gefahren können von Social Bots ausgehen?

    Bedenklich wird der Einsatz von Social Bots, wenn sie zur automatisierten Propaganda missbraucht werden. Schließlich ist es möglich, mit einem einzigen Computerprogramm mehrere hundert oder sogar tausend Fake-Accounts für Twitter zu steuern. Das richtige Tool dafür kostet ca. 200 $, die nötigen Accounts sind ebenfalls online erhältlich.

    Für 80 $ kann man sich 1.000 Twitter-Profile kaufen, für 20 $ mehr sogar jeweils mit Profilbild- und -beschreibung, damit sie möglichst menschlich wirken und als Fake Accounts nicht so schnell auffliegen.

    Der Politologe Simon Hegelich geht in einer Studie der Konrad Adenauer Stiftung davon aus, dass Social Bots vor der Brexit-Abstimmung in Großbritannien und während der Krim-Annexion mitten im Ukrainekonflikt mitgemischt und erheblichen Einfluss auf Debatten ausgeübt haben. Dabei merkt er an, dass die künstliche Intelligenz, die sich hinter den Bots verbirgt, immer komplexer und schlauer wird. Vereinzelt können Social Bots wie echte, menschliche Nutzer erscheinen, indem sie einen Tag-Nacht-Rhythmus vortäuschen, viele Follower aufweisen, überwiegend Beiträge zu eher nebensächlichen Themen veröffentlichen und sogar mit Menschen im Chat kommunizieren können. Gleichzeitig aber, am Beispiel des Ukrainekonflikts zu sehen, gemischt mit politisch-rechten Inhalten.

    Social Bots sind dabei eine große gesellschaftliche Gefahr, denn durch die Möglichkeit, mit einem einzigen Computerprogramm mehrere tausend Bots zu kontrollieren, können gesellschaftliche Meinungen beeinflusst werden. Durch Likes und Retweets (die maßgeblichen Kenngrößen für Erfolg und Reichweite auf Twitter) können die sogenannten „Trending Topics“, also die Ranglisten mit den Begriffen, die in dem sozialen Netzwerk aktuell am häufigsten Verwendung finden, beeinflusst werden.

    So wurden auch während des letzten US-Wahlkampfs Social Bots eingesetzt, die meisten schätzungsweise aus dem Trump-Lager. Als die erste TV-Debatte zwischen Hilary Clinton und Donald Trump vorbei war, stieg der Hashtag #Trumpwon („Trump hat gewonnen“) schnell in den Trending Topics bei Twitter auf, während viele Zuschauer und vor allem die Presse Trump als deutlichen Verlierer der Debatte einstufte. So wurde in dem sozialen Netzwerk das gesellschaftliche Bild deutlich verzerrt. Wer die Debatte nicht sah und nur einen Blick auf den Twitter-Trend warf, war vermutlich der Ansicht, Trump wäre aus der TV-Debatte als deutlicher Sieger hervorgegangen.
    Eine kurz vor der Wahl veröffentlichte Studie von Alessandro Bessi und Emilio Ferrara der University of Southern California gab Schätzungen ab, dass während des Wahlkampfs knapp 400.000 Bots auf Twitter mitgemischt haben. Sie veröffentlichten 3,8 Millionen Tweets, wobei ungefähr 75% von ihnen für Donald Trump twitterten und nur 25% für Hilary Clinton. Eine weitere Studie von Bence Kollanyi, Phillip N.Howard und Samuel C. Woodley, die knapp 10 Tage nach der Präsidentschaftswahl 2016 erschien, stellt außerdem fest: Social Bots aus dem Trump-Lager waren besonders aktiv zu strategisch wichtigen Ereignissen, beispielsweise während und nach den jeweiligen TV-Debatten und kurz vor der eigentlichen Wahl am 8. November.

    Das gefährliche dabei: Durch das Verfälschen oder Verstärken von Trends lassen sich viele Menschen indirekt beeinflussen. Oft schließen sie sich der Meinung an, die tendenziell die meiste Zustimmung erhält. Deshalb ist es in Österreich beispielsweise verboten, erste Auszählungen und Wahlprognosen am Tag der Nationalratswahl vor Schließung der Wahllokale zu veröffentlichen, damit die Wahlergebnisse nicht durch psychologische Faktoren beeinflusst werden können. Dass im Falle von Social Bots viele natürlich nicht erkennen, dass es sich bei ihnen gar nicht um die Meinung echter Menschen handelt, macht die Sachlage umso gefährlicher. Während der Brexit-Debatte konnte festgestellt werden, dass Tweets mit dem Hashtag #Brexit häufig von Bots stammten. Ein Großteil davon wurde dem konservativen Lager zugeschrieben, das für einen Austritt aus der Europäischen Union war. Social Media-Trends fließen außerdem in wirtschaftliche und politische Entscheidungsprozesse ein. Durch die Analyse von vermeintlich präsenten Meinungen in sozialen Netzwerken passen Unternehmen ihre Marketingstrategien und Politiker ihre Programme an. So können Social Bots zu einer Gefahr für die Gesellschaft und schließlich auch für die Demokratie werden.

    Propaganda-Roboter auch in Österreich?

    Bisher gibt es keine Anzeichen dafür, dass Social Bots zu Propagandazwecken in Österreich eingesetzt werden. Doch auch hier besteht potenziell die Gefahr, dass gesellschaftliche Debatten gezielt beeinflusst werden können. So kann die aktuelle Flüchtlingsdebatte und die gesellschaftliche Meinung dazu in gewissen Maßen gelenkt werden, wenn Social Bots zum Beispiel in großem Umfang den Hashtag #refugeesnotwelcome („Flüchtlinge nicht willkommen“) auf Twitter benutzen, während die österreichische Gesellschaft doch eher zu einer offenen Willkommenskultur tendiert. Auch hier würde gelten: Der Eindruck, der durch die verfälschten Trends in sozialen Medien entstehen kann, ist gefährlich für Politik, Medien und Gesellschaft.

    Was kann gegen den Einfluss unternommen werden?

    Social Bots werden nicht mehr verschwinden. Algorithmen und künstliche Intelligenzen sind Teil der Gesellschaft und gehen mit der digitalen Transformation einher. Den Betreibern sozialer Netzwerke gelingt es außerdem bisher nicht, alle unerwünschten Bots von ihren Plattformen zu verbannen.

    Die Methoden der Erkennung von Propaganda-Robotern in sozialen Medien, beispielsweise durch spezielle Tools  für die Nutzer, werden stetig optimiert und besser. Doch gleichzeitig wird auch die Programmierung von Propaganda-Robotern intelligenter und komplexer. Es gilt: Je menschlicher ein Social Bot agiert und sich verhält, desto schwieriger wird es, ihn als einen solchen zu erkennen.
    Schon jetzt ist es nahezu unmöglich, alle Bots, die sich in sozialen Netzwerken tummeln, zu identifizieren. Über die Anzahl gibt es höchstens Schätzungen. Viel schwieriger ist es überdies, die Drahtzieher hinter den Kulissen auszumachen. Niemand weiß, wer die Bots steuert, die etwa für Donald Trump Propaganda machen. Und auch der tatsächliche Einfluss, der sogenannte „Bot-Effekt“ (Simon Hegelich), den Social Bots auf die gesellschaftliche Meinung haben, ist empirisch nicht nachvollziehbar oder gar messbar.

    Wichtig ist daher vor allem, dass politische Akteure und Internetnutzer der potenziellen Gefahren durch das mögliche Verfälschen von Social Media-Trends sensibilisiert sind und einen verantwortungsvollen und aufgeklärten Umgang mit Algorithmen und künstlicher Intelligenz vermitteln. Auch sollte klar sein, dass quantitative Parameter wie „gefällt-mir-Angaben“ auf Facebook, Retweets, die Anzahl an Followern und Erwähnungen von Schlüsselwörtern auf Twitter keine Maßeinheiten für Qualität und gesellschaftliche Meinungstendenzen sind. Social Bots sind in sozialen Netzwerken allgegenwärtig. Ein Verantwortungsvoller und kritischer Umgang mit neuen Medien und Informationen im Internet, vor allem in sozialen Netzwerken, ist daher unerlässlich.

    Bilder:
    – Twitter Trends: Screenshot twitter.de
    – Fake-Profile kaufen: Screenshot http://www.buysocialaccountz.com/twitter-accounts
    – Twitter Tool: Screenshot: http://monstersocial.net

     


  • Blog · Termine · Webinare27. März 2015 · 11:00
    bis 12:00

    WerdeDigital.at Webinar05 #digitalesArbeiten #GOW15 27.3.2015 11-12 Uhr

    Die WerdeDigital.at Webinarwoche zum Thema „Das neue Arbeiten im Netz„, kam am Freitag ins Finale. Im Rahmen der europaweiten Get Online Week 2015 boten wir in Summe fünf Webinare in gebündelter Form an.

    Unter dem Motto: 5 Tage – 5 Themen – 5 Bundesländer, reiste Meral Akin-Hecke durch Österreich und brachte jeden Tag neue Gäste und & Unterstützer_innen in die Webinarreihe mit.
    WerdeDigital.at Webinarreihe 23.-27. März Speakersliste
    → Weiterlesen

  • WebCamp magich
    Blog11. November 2014

    Jugend online – Webskills für die Jugendarbeit

    Das wienXtra WebCamp 2015 steht in den Startlöchern.

    Für die Generation Facebook ist das Internet zentraler Kommunikations- und Aufenthaltsort. Der veränderte (Medien-)Alltag Heranwachsender wirft viele Fragen auf und stellt Jugendarbeit vor neue Herausforderungen.

    → Weiterlesen

Zur Werkzeugleiste springen