logo WerdeDigital.at

Wie unterscheide ich wahr von falsch? – Dossier 3, Beitrag #3

Falsche Accounts von Politiker_innen und Prominenten, gefälschte Krisenpropaganda, manipulierte Bilder oder frei erfundene Meldungen machen im Netz immer wieder die Runde. Wie man Fakes und Hoaxes – Falsch- und Scherzmeldungen – erkennt.

Das Jahr 2016 war kein gutes für die Wahrheit. Egal, ob in der Brexit-Diskussion oder in den Präsidentschaftswahlkämpfen in Österreich und den USA: Noch nie gab es ein so hohes Maß an Falschinformation. Und das in allen Schattierungen: Von der mehr oder weniger klar erkennbaren Satire, über dramatisierte, um Klicks buhlende Clickbait-Überschriften, irreführende, weil bewusst unvollständige Informationen, über Bildfälschungen, Lügen bis hin zur frei erfundenen Meldung war alles dabei. Bot-Accounts – automatisiert betriebene Präsenzen in z.B. Facebook oder Twitter haben diesen Inhalten zu noch größerer Reichweite verholfen.

Besonders besorgniserregend: Es gibt inzwischen eine Reihe von Leuten, die Fake-News zum Geschäftsmodell erkoren haben, weil sie durch die vielen Klicks viel Geld mit Anzeigen verdienen können. Leider gab es auch immer wieder Fälle, in denen professionelle Journalisten auf solche Falschmeldungen hereingefallen sind. Vor diesem Hintergrund gilt für Journalismus im Netz mehr denn je der alte Grundsatz der Nachrichtenagentur United Press International: „It’s good to be first, but first you have to be right.“ Die journalistische Sorgfaltspflicht ist besonders wichtig, um nicht auf Fälschungen hereinzufallen. Bei Fälschungen geht es meistens entweder um falsche Identitäten und/oder um falsche Inhalte.

Falsche oder irreführende Identitäten entdecken

Im Netz, speziell auf sozialen Netzwerken, ist es ein Kinderspiel, sich als jemand auszugeben, der man nicht ist. Ein Foto ist schnell geklaut, der Nutzername auch, fertig ist der Fake-Account. Gerade bei prominenten Personen ist das häufig der Fall. So gibt es auf Twitter zig Angela Merkels, aber keine einzige davon ist die echte.
Inzwischen haben Facebook und Twitter so genannte verifizierte Accounts eingeführt: An einem weißen Haken auf blauem Grund ist erkennbar, dass es sich tatsächlich um den Account der prominenten Person oder Institution handelt. Die Netzwerke haben in diesem Fall selbst die Identität überprüft. Wenn dieser weiße Haken fehlt, heißt das aber noch nicht automatisch, dass es sich um ein Fake-Profil handelt. Es gibt auch echte Profile, die eben noch nicht von den Betreibern der Social Networks verifiziert wurden. Manchmal kann eine einfache Google-Suche nach Berichten über einen Fake-Account schon helfen. Doch es gibt noch weitere Möglichkeiten, Original und Kopie voneinander zu unterscheiden:

  • Der Nutzername kann ein erstes Indiz liefern: Wenn er erkennbar ironisch ist oder eine hohe Zahl wie „Angela Merkel 23“ hat, ist oft schon klar, dass hier ein „Spaßvogel“ am Werk ist.
  • Das gleiche gilt für unvorteilhafte Profilfotos. Die PR-Berater von Promis achten immer auf ansehnliche, gut inszenierte (Profil-)Fotos.
  • Die Selbstbeschreibung eines Profils lohnt einen Blick. Manchmal steht hier, dass es sich um einen Parodie-Account handelt. Manchmal klingt aber auch an dieser Stelle alles offiziell und täuschend echt.

Selbst ein Website-Link entlarvt einen Fake-Account noch nicht eindeutig. Ein falscher Account kann ja immer noch den Link zur richtigen Website setzen. Hier lohnt der umgekehrte Check: Gibt es auf der Website von www.bundesregierung.de einen Link zum entsprechenden Social-Media-Profil? Aber selbst eine Website kann man fälschen. Falls es hier Zweifel gibt, lohnt eine „Who-Is“-Abfrage, d.h. Eine Auskunft, wer eine Website registriert hat. Für .at-Domains http://nic.at/ zuständig. Um zu erfahren, wie die Registrierungsstelle für Top Level Domains anderer Länder heißt, hilft der Who-Is-Service der Internet Assigned Numbers Authority (IANA) weiter. Für Top-Level-Domains, die keinerlei Rückschlüsse auf das Ursprungsland zulassen wie etwa .com, gibt es internationale Who-Is-Verzeichnisse wie www.whois.com/whois/.

Ein weiteres Beispiel für Irreführung ist die Website bundespraesidentschaftswahl.at. Wer „Bundespräsidentenwahl Österreich“ googelt, bekommt die Seite als einen der ersten Treffer angezeigt. Auf den allerersten Blick wirkt die Seite offiziell mit Bildern der Hofburg, der rot-weiß-roten Fahne und sachlichen Begriffen in der Navigation wie „Bundespräsidentenwahl 2016“, „Briefwahl“, „Ergebnisse“, „Wahlrecht“ etc. Da könnte man meinen, auf einer Regierungs-Seite gelandet zu sein. Bei einem Blick auf den Vergleich der Wahlprogramme der beiden Kandidaten merkt man dann, dass FPÖ-Kandidat Hofer in positives Licht gerückt wird, während Alexander van der Bellen hier meist schlecht wegkommt („Drückeberger“ bei der Frage nach dem Grundwehrdienst). Im Impressum stößt man auf den Namen Robert Marschall und wer den googelt, findet heraus, dass es sich um den Obmann der EU-Austrittspartei handelt. Politisch steht er Norbert Hofer offensichtlich viel näher als Alexander van der Bellen. Hier liegt also die Vermutung nahe, dass er Hofer mit der Seite unterstützen will. Wenn man weiß, wer hinter einer Website steckt, kann man sich Gedanken über die Interessen machen, die der- oder diejenige mit der Seite bzw. einer bestimmten Meldung bezweckt.

Vorsicht bei spektakulären Inhalten von unbekannten Absendern

Es gibt natürlich auch Fälle, in denen nicht die Prominenz des Absenders im Mittelpunkt steht, sondern der Inhalt brisant oder interessant ist. Wie erkenne ich nun, ob der Absender eine vertrauenswürdige Quelle ist und die Inhalte stimmen? Auch hier lohnt ein Blick auf die Profilinformationen.
Jede weitere Information über den Absender ist wertvoll:

  • Hat er eine eigene Website, ein Blog, Profile in sozialen Netzwerken?
  • Wer steht dort jeweils im Impressum?
  • Steckt eine Organisation oder eine Lobby dahinter? Wenn ja, welche?
  • Geben diese Präsenzen ein stimmiges Gesamtbild, sprich: Ist ein inhaltlicher Schwerpunkt und eventuell eine Expertise erkennbar?

Wenn ein Post nach breaking news klingt, thematisch aber gar nichts mit dem sonstigen Schwerpunkten zu tun hat, ist Vorsicht geboten. Das gleiche gilt, wenn ein Profil sehr jung ist und gleich mit Insider-Informationen aufwartet. Hier liegt der Verdacht nahe, dass das Profil eigens geschaffen wurde, um Falschinformationen zu verbreiten.

Aufschlussreich kann ein Blick auf die Gefolgschaft des Accounts im jeweiligen sozialen Netzwerk sein. Hat er sehr viele oder sehr wenige Follower? Noch wichtiger: Folgen ihm bekannte und verifizierte Accounts? Natürlich ist das keine Garantie, aber es ist doch unwahrscheinlich, dass gleich mehrere arrivierte Accounts einem unseriösen Account folgen.

Besonders skeptisch sollte man auch sein, wenn der Inhalt zu gut oder zu spektakulär klingt, um wahr zu sein. Etwa die vermeintliche App „Rumblr“, mit der man sich angeblich zu einem Straßenkampf verabreden konnte. Im Zweifelsfall sollte man immer versuchen, Kontakt zum Urheber der fraglichen Information aufzunehmen. Wenn ein Anruf nicht möglich ist, weil sich keine Telefonnummer recherchieren lässt, sollte man den Urheber direkt im Netzwerk ansprechen oder eine Mail mit der Bitte um Kontaktaufnahme oder Übermittlung einer Telefonnummer schicken. Je nach Standort von Urheber und Journalist ist unter Umständen sogar eine persönliche Begegnung denkbar.

Wenn jemand eine spektakuläre Information über eine bekannte Person oder Institution verbreitet, ist es am besten, bei dieser Person oder Institution direkt nachzufragen, ob die Information zutrifft. Falls das alles nichts fruchtet, gilt: Lieber die Finger davon lassen und nicht darüber berichten. Es bringt nichts, eine unbestätigte Information mit dem Hinweis, dass sie eben noch nicht verifiziert werden konnte, weiter zu kolportieren. Zu groß ist die Gefahr, dass ein Großteil der Leser_innen den Inhalt eben doch für bare Münze nimmt. Der journalistischen Glaubwürdigkeit erweist man damit einen Bärendienst.

Auch bei Bildern ist Vorsicht geboten. Gerade weil ihnen noch immer Beweiskraft zugesprochen wird. Dabei sind Bildern sehr leicht zu manipulieren. Oder aber Bilder werden nicht manipuliert, aber in einem vollkommen fremden Kontext verwendet, oft mit der Absicht, sie für eigenen Zwecke zu instrumentalisieren. Hier kann eine umgekehrte Bildersuche („Reverse Image Search“) Wunder wirken: Dazu lädt man auf Seiten wie tineye.com ein Bild hoch (oder gibt nur die URL des Bildes ein) und sortiert nach Datum. Oft wird so klar, dass ein Bild schon viel älter ist als behauptet wird, also nicht wirklich was mit dem kolportierten Ereignis zu tun hat. Auch Metadaten von Bildern können sehr aufschlussreich sein.

Als Gegenbewegung zu den vielen Halb- oder Unwahrheiten haben sich eine Reihe von Fact-Checking-Seiten gebildet: politifact.com untersucht in den USA seit Jahren Politiker-Statements auf ihren Wahrheitsgehalt. hoaxmap.org dokumentiert in Deutschland Falschmeldungen und Gerüchte über Asylbewerber. In Österreich hat sich in den vergangenen Jahren vor allem mimikama.at einen Namen unter den Fact-Checking-Seiten gemacht. mimikama berichtet über aktuelle Fakes und macht diese Berichte über hoaxsearch.com durchsuchbar. Außerdem gibt die Seite Tipps, wie man Fake-News erkennt und gibt diese Tipps auch in Webinaren weiter. Eine große Rolle bei der Verbreitung der Aufklärung über jede Form von Internetmissbrauch spielen die Social-Media-Kanäle, speziell Facebook. Dort ist Mimikama unter dem Namen „Zuerst denken, dann klicken“ aktiv und hat mehr als 660.000 Follower. Für seine unermüdliche Aufklärungsarbeit war Mimikama 2016 für den klicksafe Preis des deutschen Grimme-Instituts nominiert.

Politik sorgt sich um Qualität der Debattenkultur

Auf dem Feld der Wahrheitsfindung gibt es also viel zu tun. Ein Ansatz ist Prävention durch Wissen. Während in Deutschland gerade wieder die Diskussion hochkocht, ob Medienkompetenz ein eigenes Schulfach werden soll oder es als Querschnittsthema in verschiedenen Fächern stärker beleuchtet werden soll, ist Österreich hier schon weiter. Seit 2012 gibt es einen Grundsatzerlass zum Unterrichtsprinzip Medienerziehung. Medienkompetenz taucht auch in Lehrplänen von Grundschule, Mittelschule und allgemein bildenden höheren Schulen auf.

Die Schwemme von Fake-News auf Facebook hat dazu geführt, dass Spitzenpolitiker Facebook zum Gegensteuern aufrufen. Bundeskanzler Kern bemängelte jüngst die fehlende inhaltliche Verantwortung Facebooks für „Manipulationsmöglichkeiten und politischen Einfluss“. Neben Falschinformationen sieht er auch Beleidigungen als großes Problem und fordert einen EU-weiten Regulierungsrahmen für Facebook, aber auch für Google.

Ohne Facebook und Google namentlich zu erwähnen, hat die deutsche Bundeskanzlerin Angela Merkel auf den Medientagen München 2016 mehr Transparenz für Algorithmen gefordert: „Ich persönlich bin dabei auch der Meinung, dass Algorithmen transparenter sein müssen, sodass interessierten Bürgern auch bewusst ist, was eigentlich mit ihrem Medienverhalten und dem anderer passiert.“ Hintergrund ist die gesellschaftliche Debattenkultur: Speziell der Facebook-Algorithmus bevorzugt Inhalte, die oft geteilt, geliked und kommentiert werden. Besonders häufig ist das bei emotionalisierten und dramatisierten Inhalten der Fall. Und beim Emotionalisieren und Dramatisieren bleibt von der Wahrheit oft nicht mehr viel übrig. Oder noch schlimmer: Frei erfundene Inhalte mit sensationsheischender Überschrift werden viral und verbreiten sich ähnlich einem Krankheitserreger. Facebook-Chef Mark Zuckerberg will keine Verantwortung übernehmen. Er hat nach der US-Wahl die Unterstellung, dass Falschmeldungen auf Facebook „die Wahl in irgendeiner Weise beeinflusst“ hätten, als „ziemlich verrückt“ zurückgewiesen. Der Politik hat auf diesem Feld also nur einen begrenzten Einfluss. Um so wichtiger ist für alle Netznutzer_innen die Kompetenz, arg zugespitzte Inhalte auf ihren wahren Kern hin zu beleuchten. Und zwar bevor man auf den Teilen-Button geklickt hat. Wie formuliert es Mimikama so schön: Zuerst denken, dann klicken.

 

Autor
Bernd Oswald ist freier Medienjournalist, Trainer und Trendscout im digitalen Journalismus. Er interessiert sich für die Weiterentwicklung des Journalismus an der Schnittstelle zwischen Redaktion, Programmierung und Design. Deswegen hat er Hacks/Hackers München mitgegründet, wo Journalisten, Programmierer und Designer neue Formate diskutieren und konzipieren. Zu diesen Themen twittert er als @berndoswald und bloggt zudem auf www.journalisten-training.de. Eine Auswahl seiner Arbeitsproben präsentiert er auf seinem Torial-Profil.

logo WerdeDigital.at

Die Gefahren durch Social Bots – Dossier 3, Beitrag #2

Social Bots stellen durch die Einflüsse, die sie bewirken können, eine Gefahr für die Demokratie dar. Was genau sind Social Bots? Welche konkreten Gefahren können von ihnen ausgehen, auch für Österreich? Und was kann dagegen unternommen werden?

Was sind Social Bots?

Ein Bot (von Robot) ist ein Computerprogramm, dass je nach Vorgabe seines Programmierers bestimmte, sich wiederholende Aufgaben erledigt. Mit dem Zusatz Social werden Bots bezeichnet, die in vorzugsweise sozialen Netzwerken wie Facebook, Twitter oder Instagram agieren. Sie versuchen meist, ihre Identität zu verschleiern, wollen weitestgehend menschlich erscheinen, wie echte Nutzer.
Dabei ist der Grundgedanke hinter Social Bots vollkommen harmlos und legitim: Sie sind sehr hilfreich, wenn es beispielsweise darum geht, mit vielen Nutzern sozialer Netzwerke in kurzer Zeit zu interagieren, spezifisch nach der gewünschten Zielgruppe Beiträge zu erstellen oder Follower regelmäßig auf neue Publikationen hinzuweisen. So haben zum Beispiel die Blogger von netzpolitik.org einen Social Bot programmiert, der regelmäßig prüft, ob auf der eigenen Website ein neuer Beitrag veröffentlicht wurde. Der Bot postet anschließend jeden Beitrag automatisch auf Twitter. Er nimmt also potenzielle Arbeit ab.

Es ist sehr einfach, einen Social Bot zu erstellen. Für Twitter benötigt man einen Nutzeraccount, einen Zugang zur automatisierten Schnittstelle (API) des sozialen Netzwerks und ein Programm, das in der Lage ist, einen Account automatisiert steuern zu lassen. Außerdem gibt es zahlreiche Anleitungen im Internet, die auch für Laien das Programmieren von Bots so einfach wie möglich gestalten sollen.

Welche Gefahren können von Social Bots ausgehen?

Bedenklich wird der Einsatz von Social Bots, wenn sie zur automatisierten Propaganda missbraucht werden. Schließlich ist es möglich, mit einem einzigen Computerprogramm mehrere hundert oder sogar tausend Fake-Accounts für Twitter zu steuern. Das richtige Tool dafür kostet ca. 200 $, die nötigen Accounts sind ebenfalls online erhältlich.

Für 80 $ kann man sich 1.000 Twitter-Profile kaufen, für 20 $ mehr sogar jeweils mit Profilbild- und -beschreibung, damit sie möglichst menschlich wirken und als Fake Accounts nicht so schnell auffliegen.

Der Politologe Simon Hegelich geht in einer Studie der Konrad Adenauer Stiftung davon aus, dass Social Bots vor der Brexit-Abstimmung in Großbritannien und während der Krim-Annexion mitten im Ukrainekonflikt mitgemischt und erheblichen Einfluss auf Debatten ausgeübt haben. Dabei merkt er an, dass die künstliche Intelligenz, die sich hinter den Bots verbirgt, immer komplexer und schlauer wird. Vereinzelt können Social Bots wie echte, menschliche Nutzer erscheinen, indem sie einen Tag-Nacht-Rhythmus vortäuschen, viele Follower aufweisen, überwiegend Beiträge zu eher nebensächlichen Themen veröffentlichen und sogar mit Menschen im Chat kommunizieren können. Gleichzeitig aber, am Beispiel des Ukrainekonflikts zu sehen, gemischt mit politisch-rechten Inhalten.

Social Bots sind dabei eine große gesellschaftliche Gefahr, denn durch die Möglichkeit, mit einem einzigen Computerprogramm mehrere tausend Bots zu kontrollieren, können gesellschaftliche Meinungen beeinflusst werden. Durch Likes und Retweets (die maßgeblichen Kenngrößen für Erfolg und Reichweite auf Twitter) können die sogenannten „Trending Topics“, also die Ranglisten mit den Begriffen, die in dem sozialen Netzwerk aktuell am häufigsten Verwendung finden, beeinflusst werden.

So wurden auch während des letzten US-Wahlkampfs Social Bots eingesetzt, die meisten schätzungsweise aus dem Trump-Lager. Als die erste TV-Debatte zwischen Hilary Clinton und Donald Trump vorbei war, stieg der Hashtag #Trumpwon („Trump hat gewonnen“) schnell in den Trending Topics bei Twitter auf, während viele Zuschauer und vor allem die Presse Trump als deutlichen Verlierer der Debatte einstufte. So wurde in dem sozialen Netzwerk das gesellschaftliche Bild deutlich verzerrt. Wer die Debatte nicht sah und nur einen Blick auf den Twitter-Trend warf, war vermutlich der Ansicht, Trump wäre aus der TV-Debatte als deutlicher Sieger hervorgegangen.
Eine kurz vor der Wahl veröffentlichte Studie von Alessandro Bessi und Emilio Ferrara der University of Southern California gab Schätzungen ab, dass während des Wahlkampfs knapp 400.000 Bots auf Twitter mitgemischt haben. Sie veröffentlichten 3,8 Millionen Tweets, wobei ungefähr 75% von ihnen für Donald Trump twitterten und nur 25% für Hilary Clinton. Eine weitere Studie von Bence Kollanyi, Phillip N.Howard und Samuel C. Woodley, die knapp 10 Tage nach der Präsidentschaftswahl 2016 erschien, stellt außerdem fest: Social Bots aus dem Trump-Lager waren besonders aktiv zu strategisch wichtigen Ereignissen, beispielsweise während und nach den jeweiligen TV-Debatten und kurz vor der eigentlichen Wahl am 8. November.

Das gefährliche dabei: Durch das Verfälschen oder Verstärken von Trends lassen sich viele Menschen indirekt beeinflussen. Oft schließen sie sich der Meinung an, die tendenziell die meiste Zustimmung erhält. Deshalb ist es in Österreich beispielsweise verboten, erste Auszählungen und Wahlprognosen am Tag der Nationalratswahl vor Schließung der Wahllokale zu veröffentlichen, damit die Wahlergebnisse nicht durch psychologische Faktoren beeinflusst werden können. Dass im Falle von Social Bots viele natürlich nicht erkennen, dass es sich bei ihnen gar nicht um die Meinung echter Menschen handelt, macht die Sachlage umso gefährlicher. Während der Brexit-Debatte konnte festgestellt werden, dass Tweets mit dem Hashtag #Brexit häufig von Bots stammten. Ein Großteil davon wurde dem konservativen Lager zugeschrieben, das für einen Austritt aus der Europäischen Union war. Social Media-Trends fließen außerdem in wirtschaftliche und politische Entscheidungsprozesse ein. Durch die Analyse von vermeintlich präsenten Meinungen in sozialen Netzwerken passen Unternehmen ihre Marketingstrategien und Politiker ihre Programme an. So können Social Bots zu einer Gefahr für die Gesellschaft und schließlich auch für die Demokratie werden.

Propaganda-Roboter auch in Österreich?

Bisher gibt es keine Anzeichen dafür, dass Social Bots zu Propagandazwecken in Österreich eingesetzt werden. Doch auch hier besteht potenziell die Gefahr, dass gesellschaftliche Debatten gezielt beeinflusst werden können. So kann die aktuelle Flüchtlingsdebatte und die gesellschaftliche Meinung dazu in gewissen Maßen gelenkt werden, wenn Social Bots zum Beispiel in großem Umfang den Hashtag #refugeesnotwelcome („Flüchtlinge nicht willkommen“) auf Twitter benutzen, während die österreichische Gesellschaft doch eher zu einer offenen Willkommenskultur tendiert. Auch hier würde gelten: Der Eindruck, der durch die verfälschten Trends in sozialen Medien entstehen kann, ist gefährlich für Politik, Medien und Gesellschaft.

Was kann gegen den Einfluss unternommen werden?

Social Bots werden nicht mehr verschwinden. Algorithmen und künstliche Intelligenzen sind Teil der Gesellschaft und gehen mit der digitalen Transformation einher. Den Betreibern sozialer Netzwerke gelingt es außerdem bisher nicht, alle unerwünschten Bots von ihren Plattformen zu verbannen.

Die Methoden der Erkennung von Propaganda-Robotern in sozialen Medien, beispielsweise durch spezielle Tools  für die Nutzer, werden stetig optimiert und besser. Doch gleichzeitig wird auch die Programmierung von Propaganda-Robotern intelligenter und komplexer. Es gilt: Je menschlicher ein Social Bot agiert und sich verhält, desto schwieriger wird es, ihn als einen solchen zu erkennen.
Schon jetzt ist es nahezu unmöglich, alle Bots, die sich in sozialen Netzwerken tummeln, zu identifizieren. Über die Anzahl gibt es höchstens Schätzungen. Viel schwieriger ist es überdies, die Drahtzieher hinter den Kulissen auszumachen. Niemand weiß, wer die Bots steuert, die etwa für Donald Trump Propaganda machen. Und auch der tatsächliche Einfluss, der sogenannte „Bot-Effekt“ (Simon Hegelich), den Social Bots auf die gesellschaftliche Meinung haben, ist empirisch nicht nachvollziehbar oder gar messbar.

Wichtig ist daher vor allem, dass politische Akteure und Internetnutzer der potenziellen Gefahren durch das mögliche Verfälschen von Social Media-Trends sensibilisiert sind und einen verantwortungsvollen und aufgeklärten Umgang mit Algorithmen und künstlicher Intelligenz vermitteln. Auch sollte klar sein, dass quantitative Parameter wie „gefällt-mir-Angaben“ auf Facebook, Retweets, die Anzahl an Followern und Erwähnungen von Schlüsselwörtern auf Twitter keine Maßeinheiten für Qualität und gesellschaftliche Meinungstendenzen sind. Social Bots sind in sozialen Netzwerken allgegenwärtig. Ein Verantwortungsvoller und kritischer Umgang mit neuen Medien und Informationen im Internet, vor allem in sozialen Netzwerken, ist daher unerlässlich.

Bilder:
– Twitter Trends: Screenshot twitter.de
– Fake-Profile kaufen: Screenshot http://www.buysocialaccountz.com/twitter-accounts
– Twitter Tool: Screenshot: http://monstersocial.net

 

logo WerdeDigital.at

Hass im Netz: Ein Interview mit Ingrid Brodnig – Dossier 3, Beitrag #1

 

Das Thema Hasspostings kam in den letzten Jahren in aller Munde. Aber wer schreibt sie? Woher kommt das? Und was kann man dagegen tun? Das versuchen wir im Gespräch mit Ingrid Brodnig herauszufinden.

Ingrid beschäftigt sich als Journalistin mit dem Thema schon seit Jahren. Im April erschien ihr Buch „Hass im Netz. Was wir gegen Hetze, Mobbing und Lügen tun können“ (Brandstätter-Verlag). In unserem etwa halbstündigen Interview haben wir über Trolle, Glaubenskrieger, die österreichische Rechtslage und ein paar Maßnahmen gesprochen, wie wir das Netz für uns alle wieder etwas schöner machen können.

Es folgt eine gekürzte Version des Gesprächs. Im Podcast gehen wir mit Ingrid oft weiter ins Detail.

Tom: Wie äußert sich Hass im Netz?

Ingrid: Das kommt darauf an, wann man etwas als Hass bezeichnet. Ich spreche vor allem dann von Hass, wenn es ins strafrechtlich Relevante geht: Verhetzung und Drohungen. Darüber hinaus erleben wir auch sehr viel Wut und eine Tendenz, dass online eine Debatte sehr schnell entgleist. Wir sehen ein ständiges Scheitern der menschlichen Kommunikation. Es ist unglaublich schwierig, sachlich zu diskutieren. Das ist vielleicht die größere Problematik.

Ist das im Web wirklich schlimmer und warum?

Das ist tatsächlich so. Man kann eine Enthemmung feststellen. Menschen sind ruppiger und aggressiver. Die Enthemmung kann auch positiv sein. Schüchterne Menschen fassen etwa mehr Selbstvertrauen. Die negative Facette ist ein Ausleben von Wut, ein Ausleben dunkler Gefühle. Das liegt daran, dass die Face-to-Face-Kommunikation anders als die schriftliche online funktioniert. Die Anonymität ist ein Faktor, kann das aber nicht allein erklären. Ein anderer wichtiger Faktor ist die Unsichtbarkeit, die ich für immens bedeutend halte. Man sieht sein Gegenüber nicht. Da kann man ruppig sein, ohne die emotionalen Konsequenzen sehen zu müssen.

Man muss also nicht miterleben, was die eigenen Worte genau anrichten.

Genau. Augenkontakt ist immens empathiefördernd. Das funktioniert sogar über Webcams. Aber von dieser Unsichtbarkeit werden wir nicht so bald wegkommen.

Du unterscheidest zwischen Trollen und Glaubenskriegern?

Genau. Neben der allgemeinen Enthemmung gibt es spezielle Gruppen. Die sind für sehr viel Leid im Internet verantwortlich. Sie sind in ihrer Motivation aber sehr unterschiedlich. Der Troll etwa. Im Web wird der Begriff zu inflationär eingesetzt. Da wird oft jeder als Troll bezeichnet, der eine andere Meinung hat. Der Troll ist eigentlich ein Provokateur, den die Schadenfreude antreibt, der negative Emotionen auslösen und Menschen in Streitigkeiten bringen will. Dadurch fühlt er sich intellektuell erhaben. Trolle leiden überdurchschnittlich oft an Sadismus. Sie sind auch oft persönlich nicht besonders politisch und machen sich über Leute, die überzeugt von etwas sind, sogar eher lustig.

Und die andere Gruppe?

Die Glaubenskrieger sind ganz anders. Den Begriff habe ich gewählt, um die Nutzer zu beschreiben, die total von einer Sache eingenommen sind. Sie versuchen ohne Rücksicht auf die Gefühle anderer, ihre Weltsicht durchzubringen. Auch mit martialischen Mitteln: Falschmeldungen, Beleidigungen, Drohungen. Oft gibt es Verschwörungstheorien, die Bedrohungen in den Raum stellen. Glaubenskrieger halten das für echt, deshalb ist es plötzlich angemessen, jedes Mittel zu ergreifen um darauf hinzuweisen. Nachdem Falschmeldungen richtiggestellt werden, liest man von ihnen zum Beispiel oft den Satz „Aber es hätte auch wahr sein können“. Da geht es nur noch darum, dass etwas gefühlt wahr sein könnte und dadurch gibt es eine große Gleichgültigkeit gegenüber beweisbaren Fakten. Und auch eine besondere Aggression gegenüber Andersdenkenden, die schnell verunglimpft werden.

Es wird dann keine Quelle mehr akzeptiert, die etwas Abweichendes behaupten könnte. Die Tendenz haben wir bei manchen Themen aber alle, oder?

Ja. Aber es gibt Medienkonsum- und allgemeine Verhaltensformen, die einem helfen können, nicht zu einem harten Glaubenskrieger zu werden. Der Kontakt mit Andersdenkenden und Quellen, die nicht hundertprozentig dem eigenen Weltbild entsprechen, ist etwa sehr wichtig. Menschen, die etwa im Beruf viel mit Andersdenkenden konfrontiert sind, sind Studien zufolge auch besser informiert. Kann man mit anderen nicht mehr sachlich diskutieren, sitzt man selbst viel öfter Falschmeldungen auf. Intellektuell im Gespräch bleiben und Medien lesen, die etwas anders denken – mit solchen „Tricks“ kann man sich etwas davor schützen, es sich zu leicht zu machen.

Welche Rolle spielt da Facebook mit seinen Algorithmen?

Wir wissen es nicht. Facebook gibt unabhängigen Wissenschaftlern keinen Zugang zu den nötigen Daten. Eine aus wissenschaftlicher Hinsicht zutiefst umstrittene Studie zur Filterblase haben Facebook-Mitarbeiter selbst durchgeführt. Die wurde dann so dargestellt, als wäre der Effekt sehr klein. Aber selbst in dieser Studie gab es einen messbaren Unterschied zwischen liberalen und konservativen Nutzern. Das Problem ist eine Mischung aus Mensch und Maschine. Wir Menschen haben uns natürlich schon immer mit Nachrichten versorgt, die unser Weltbild bestätigen. Früher gab es Parteizeitungen. Aber auf Facebook geht das noch viel weiter ins Detail.

Was gibt es für einen politischen Handlungsbedarf bei Hass im Netz?

Wir haben im deutschsprachigen Raum eigentlich recht gut Gesetze. Da besteht nur zum Teil rechtlicher Nachbesserungsbedarf. Einer wäre, dass bedrohliche Kommentare derzeit keine gefährliche Drohung nach juristischer Definition sind. Etwa wenn jemand schreibt: „Du solltest dich nicht wundern, wenn du eines Nachts überfallen und vergewaltigt wirst“. Das ist juristisch nicht konkret genug, für das Opfer ist das aber vergleichbar. Wenn etwas kein Offizialdelikt ist – also etwa auch Beleidigungen – hat die Staatsanwaltschaft aber keine Handhabe, kann deshalb auch nicht aktiv werden und Täter ausforschen.

Was würdest du jemandem raten, wenn er im Web schwer beleidigt oder bedroht wird?

Auf jeden Fall alles dokumentieren. Viele Betroffene erzählen mir, dass sie im ersten Schock alles gelöscht haben. Dann kann man es nicht vor Gericht bringen und weiß auch nicht, wer der User war. Wenn man sich wirklich bedroht fühlt, dann sollte man es auch wirklich anzeigen. Viele Menschen glauben, das hat keine Chance. Aber es gibt eine. Und je mehr angezeigt wird, desto mehr wird auch durchgehen. Das Dritte ist: Nicht alleine bleiben. So etwas nagt an einem. Man sollte sich Verbündete suchen, auch Freunde auf Facebook darauf hinweisen.

Das heißt, du würdest auch Leuten raten, einzuschreiten und etwas zu schreiben, wenn sie so etwas mitbekommen?

Viele Betroffene sagen, Unterstützung hat sehr geholfen. Dadurch sieht man, dass die Anfeinder komisch sind und nicht man selbst. Man muss nach seinem Einschreiten dann auch nicht ewig mit aggressiven Usern herumdiskutieren. Es gibt kein Recht auf eine Antwort auf einen Kommentar. Und man kann natürlich auch einschreiten, wenn man inhaltlich mit der betroffenen Person nicht übereinstimmt.

Bio: Das Gespräch führte Tom Schaffer. Tom ist freier Journalist und Medienmacher mit einer Leidenschaft für sachliche Diskussionen. Er betreibt unter zurpolitik.com, ballverliebt.eu und rebell.at Blogs und Podcasts zu den Themen Politik & Medien, Fußball sowie Games & Technologie.

Podcast-Musik: Sidewalk Shade – slower von Kevin MacLeod (http://incompetech.com), Creative Commons: By Attribution 3.0 (http://creativecommons.org/licenses/by/3.0/ )

logo WerdeDigital.at
12. Dezember 2016Blog

Design-Unterricht mit praktischem Bezug – wir backen Kekse

An einer berufsbildenden höheren Schule sollte der Bezug zum Berufsschwerpunkt meiner Meinung nach stets gegeben sein. Deshalb bemühe ich mich als Lehrerin immer um solche Aspekte in meinem Unterricht. Was tue ich also, wenn Schüler_innen zu mir kommen und mich darum bitten, mit ihnen für das Jugendrotkreuzprojekt Kekse zu backen? – Ich denke nach.

Ich unterrichte Kommunikations- und Mediendesign an der HLW der Kreuzschwestern in Linz. Unser Schulschwerpunkt liegt im Design, im Gestalten, vor allem digital am Computer. In der vierten Klasse wird bei uns 3D Grafik unterrichtet – also Erstellen und Modellieren von Objekten am PC – das brachte mich zum Glück auf eine Idee.

Da der Jugendrotkreuz-Keksverkauf vor Weihnachten jährlich stattfindet und immer einem bestimmten Zweck dient, war die Idee eigentlich naheliegend. Gesammelt wurde für eine Familie, die ihren Hund zum Diabetikerwarnhund ausbilden lassen wollte. Warum also nicht Kekse in Hundeform backen? Ganz einfach, das schien zuerst nicht möglich, weil es kaum solche Ausstecher gibt, bzw. diese in der verfügbaren Zeit aufzutreiben ein Ding der Unmöglichkeit gewesen wäre. Deshalb schlug ich vor, die Ausstecher selbst am PC zu designen, anschließend mit dem schuleigenen 3D-Drucker auszudrucken und danach beim Backen zu verwenden. Die Begeisterung war groß!

Ich selbst habe mich nach dem Beschluss sehr ausführlich mit dem Drucker der Schule beschäftigt, um auch wirklich gute Ergebnisse zu erzielen. Stundenlang habe ich Prototypen gestaltet und gedruckt, bis ich dann die korrekten Einstellungen gefunden hatte und auch einen ersten Keksausstecher präsentieren konnte.

Da es für das Diabetikerwarnhund-Projekt ein eigenes Logo gab, habe ich dieses zu einem Keksausstecher umfunktioniert und diesen und zwei andere Ausstecher in einer Keksbackprobe bei mir zu Hause getestet (Kann man damit gut ausstechen, sind sie einfach zu reinigen, gibt es Problemstellen an der Form?) und dann meinen Schüler_innen die Ergebnisse gezeigt. Der Eifer danach war groß. Es entstanden einige Formen, die wir schließlich druckten.

Es konnten nicht alle Keksausstecher gedruckt werden, da die Dauer eines einzelnen Druckvorgangs zwischen einer und zwei Stunden pendelte. Innerhalb einer Unterrichtseinheit konnte ich also nur geringfügig am Drucker arbeiten. Allerdings hat es sich so gut angeboten, den Drucker einmal während der Arbeit zu beobachten.

Am Tag des Keksverkaufs wurde dann in der Schulküche selbst Hand angelegt und fleißig mit den selbst produzierten Ausstechern ein Hundekeks nach dem anderen erst auf das Blech gelegt und dann in den Ofen geschoben.

Rückwirkend kam sehr viel Anerkennung für die Idee und die Umsetzung, sowie Dankbarkeit Seitens der Schüler_innen. Es hat ihnen sehr viel Spaß gemacht, einmal einen solch anderen KMD-Unterricht zu genießen und eine praktische Anwendung des Gelernten hautnah gezeigt zu bekommen. Ich bin froh, dass ich mich auf das etwas unübliche Projekt eingelassen habe und möchte es – sofern möglich – gern wiederholen. Mit einem neuen Thema und neuen Keksausstechern.

Die Keksausstecher während des Druckvorgangs:

Schichtweise wird das geschmolzene Material auf die heiße Platte gedruckt, sie wächst von unten nach oben.

Vorlage im 3D Programm

Gedruckte Variante

Kekse backen mit den eigenen Ausstechern

Keksverkauf in der Schule

 

Dieser Artikel ist dem eBook: Lehrende arbeiten mit dem Netz entnommen.

logo WerdeDigital.at
10. Dezember 2016Blog · Webinare

elternweb2go in Kooperation mit WerdeDigital.at mit WOLFGANG-HEILMANN-PREIS ausgezeichnet

Gemeinsam mit elternweb2go ist WerdeDigital.at als eines von drei gleichrangigen Projekten mit dem Wolfgang-Heilmann-Preis 2016 der Integrata-Stiftung für humane Nutzung der Informationstechnologie ausgezeichnet. Der Preis war heuer unter dem Motto „Bildung in der eSociety“ ausgeschrieben und ist mit 6000 Euro pro Projekt dotiert.

Wolfgang-Heilmann-Preis zeichnet innovative Bildungsprojekte aus

Prämiert werden herausragende Beiträge zur Umsetzung der modernen Informationstechnologie im Sinne ihrer humanen Nutzung, also Projekte, die einen wesentlichen Beitrag zur Verbesserung der Lebensqualität leisten. Dabei steht der pragmatische Gedanke im Vordergrund, d.h. es werden vor allem solche Arbeiten gefördert, die über den Erkenntnisfortschritt hinaus Gestaltungsvorschläge unterbreiten.

Die offizielle Preisverleihung findet am 24. Jänner 2017 auf der Messe LEARNTEC in Karlsruhe statt.

Webinare als offene Lernform der Elternbildung

Gewürdigt wurden die Webinare von elternweb2go in Kooperation mit WerdeDigital.at. Die Webinare bieten Information, Erfahrungsaustausch und die Möglichkeit, möglichst unkompliziert und rasch konkrete Umsetzungsmöglichkeiten für eigene digitale Herausforderungen oder den Erziehungsalltag mitzunehmen.

logo WerdeDigital.at
7. Dezember 2016Blog

Vom Shitstorm zur Humanität: Soziale Arbeit mischt mit in der digitalen Flüchtlingsdebatte

Wer sich in sozialen Online-Medien zur aktuellen Flüchtlingssituation informieren möchte, macht schnell dramatische und verstörende Erfahrungen: Gerade in Kommentarspalten polarisiert die Auseinandersetzung zum hochbrisanten Thema die öffentliche Meinungsbildung. Man scheint sich zwingend entscheiden zu müssen, ob man ein „Gutmensch“, ein „Realist“ oder gar ein „Volksgenosse“ sein will. Dabei werden nur wenige objektive Argumente, jedoch viele emotionale und teils hasserfüllte Statements verbreitet, was die fundierte Meinungsbildung bei Unentschlossenen eher konterkariert.

Oder anders, persönlicher ausgedrückt: Es ist schlicht unerträglich, mit welcher offenen Häme und Abscheu teils über hilfesuchende Notleidende hergezogen wird. Das dürfen wir uns als Zivilgesellschaft nicht bieten lassen! Die positive, zugewandte, an Menschenrechten ausgerichtete öffentliche Meinung ist eine wichtige Basis für die Ausgestaltung eines friedlichen Miteinanders und damit der Sozialen Arbeit!

Dieser Thematik werden sich nun erneut im kommenden Wintersemester Student_innen der Sozialen Arbeit an der Fachhochschule Salzburg widmen und im Rahmen „forschungsgeleiteter Lehre“ Lösungsansätze erarbeiten:

(1) Auf der Suche nach „bad talk“ und „good talk“ im Netz: Welche typischen Argumentationsmuster bestimmen die aktuelle Flüchtlingsdebatte? (Online-Recherchen)

(2) Welche Motivationslagen bewegen jeweils die „Wortführer_innen“ verschiedener Statements? (Interviews und persönliche Auseinandersetzung)

(3) Welche Antworten bieten sich jeweils an, um die Auseinandersetzung zu objektivieren, zu relativieren und zu versachlichen? (Fachliche Recherchen und Selbstversuch)

(4) Welche Möglichkeiten bestehen, um eine positive, zugewandte, lösungsorientierte Unterstützung zu realisieren? (Humanity-Storm-Selbstversuch) Natürlich müssen für diese Vorgehensweise geschützte Rahmenbedingungen geschaffen werden, die auch die eigene Motivationslage der Student_innen (und des Dozenten) nicht gefährden, sondern unterstützen:

Datenschutz: Hinreichender Datenschutz muss sicherstellen, dass Student_innen in ihrem Engagement nicht selbst Opfer von Shitstorms und Bedrohungen werden.

Objektivität: Die Sammlung von Statements muss auf verlässlicher Basis erfolgen und Zahlen, Daten, Fakten berücksichtigen.

Erklärungsmuster: Die Entstehungsbedingungen von „öffentlicher Meinung“ müssen fachlich hinterfragt und erläutert werden, psychologische und soziologische Hintergrundinformationen können vertiefende Zugänge zum Thema ermöglichen.

Evaluation: Zur Ermöglichung weiterreichenden Engagements müssen Möglichkeiten und Grenzen, aber auch persönliche Betroffenheit und Reaktionen klar abgebildet werden.

Vernetzung: Offene Zusammenarbeit mit bereits vorhandenen Akteur_innen im Netz soll den Schritt von „Einzelkämpfer_innen“ zur „systematischen Einbindung“ sicherstellen.

Nach mehreren Versuchen zum direkten sozialen und humanitären Engagement zusammen mit Student_innen bleiben zwei (persönliche) Statements unbenommen:
• Toleriere niemals Intoleranz!
• Gemeinsam für Menschlichkeit!

 

Dieser Artikel ist dem eBook: Lehrende arbeiten mit dem Netz entnommen.

logo WerdeDigital.at

News or Not

Von einer anderen Perspektive aus…

80% der Jugendlichen könnten Werbung und News – also Nachrichten – nicht voneinander unterscheiden, so eine Meldung der Seite t3n, der ich bei Xing begegnet bin. Darin heißt es, dass die kalifornische Stanford Universität im Zeitraum Januar 2015 bis Juni 2016 die Datensätze von Schüler_innen (Mittel- und Oberstufe), sowie einiger Studierender ausgewertet habe. Die 7.804 Datensätze aus 12 US-Bundestaaten zeigten, dass 80% der Befragten Werbungen nicht von Nachrichten unterscheiden könnten. Ähnliche Ergebnisse seien bereits im Jahr zuvor von der britischen Medienaufsichtsbehörde gefunden worden, dabei wäre deutlich geworden, dass nur 31% der 12-15-jährigen Schüler_innen den Unterschied erkennen würden und die jüngeren in der Altersgruppe 8-11 würden diese Aufgabe gerade zu 16% bewältigen.

Als kritisch sei weiterhin anzusehen, dass Viele Informationen für wahr halten, sowie sie über Google zu finden seien (t3n 2016).

Ich hinke grad der Zeit hinterher, denn mir fiel die Meldung zwar am Erscheinungstag auf, allerdings kam ich zunächst nicht dazu, meine Gedanken zu formulieren. Da sich nun seit Tagen die „Konsequenzen aus diesen Untersuchungen“ durch viele Facebook und Xing Beiträge ziehen, Expert_innen ihre Besorgnis bekunden und Pädagog_innen planen, wie dies zu ändern sei, möchte ich es jetzt nachholen.

Die Forderung nach einer kritischen Mediennutzung ist nicht wirklich neu. Die Grundlagen, die es dazu braucht sind u.a. bei Baake seit vielen Jahren beschrieben. Denn die Medienpädagogik hat sich ja nicht mit der Klage über den „Verfall“ begnügt, sondern Dimensionen der Medienkompetenz klar formuliert. Gleichfalls gibt es hinreichend Untersuchungen, Modellprojekte, Evaluationen und entsprechende Literatur zur Notwendigkeit einer alltagspraktischen (um nicht zu sagen, einer alltagspragmatischen) Nutzung der Medien.

Dass die Nutzung von Medien mit Bildung und einer entsprechenden Reflexivität einhergehen muss, dürfte auch relativ unumstritten sein.

 

Was also sagt mir die Studie wirklich?

Mich erinnerte sie zunächst an meine Eltern, die sich beim Lesen des Prints der „Apotheken Umschau[1]“ über neue Medikamente und Behandlungsmöglichkeiten informiert. Die Aussagen „Ich habe das da gelesen…“ und „… da stand, dass man xyz nehmen soll“ dürfte manchen vertraut sein. Der Effekt ist meiner Ansicht nach im Wesentlichen von den Print Medien zu bekannt, weshalb der Gesetzgeber dafür sorgte, dass Anzeigen von redaktionellen Beiträgen abgehoben werden müssen. Darüber hinaus gibt es klare rechtliche Vorgaben u.a. zur Werbung für Tabak, Alkohol, Glücksspiel, Medikamenten, Heilmittel, Babynahrung und anderen Produkten.

Doch wie klar ist das für die Leser_innen zu trennen? Werden Beiträge zu Themen redaktionell aufgemacht und Werbung[2] entsprechend optisch nah gestaltet, so sind die Grenzen schwer zu erkennen.

Ebenso, wenn reine Werbebeiträge in einer redaktionell anmutenden Form publiziert werden. In beiden Fällen kann die angemahnte Unterscheidungsfähigkeit ja nur gegeben sein, wenn die entsprechenden Hinweise bekannt sind. WEISS der/die Leser_in nicht, worauf zu achten ist, wird es für ihn/sie schwierig Hinweise finden oder die Form richtig zu interpretieren.

Liegt es nun an „Defiziten“ der Rezipient_innen oder am Geschick der Anbieter_innen?

Ich finde es verkürzt, wenn der Diskurs sich zwischen den beiden Polen bewegt.

Dass die Fülle an Informationen, welche durch die digitalen Zugänge zur Verfügung stehen, mit entsprechenden (notwendigen!) Lernprozessen zur Differenzierung verbunden sein muss, ist aus der Perspektive deutlich, dass es eine kulturelle – also von Menschen gemachte und der gesellschaftlichen Phase entspringende Herausforderung ist.

Jugendliche stehen – ebenso, wie die Generation der Großeltern – vor der Aufgabe zu erkennen, wer ihnen welche Informationen bietet, mit welcher Intention und wie sich die Validität der Aussagen überprüfen und einordnen lässt.

Sie stehen allerdings noch mehr vor der Aufgabe, die Heterogenität der Aussagen und damit verbundenen Begründungslinien auf die Werte zu prüfen, die dahinterstehen und sich individuell für oder gegen die damit verbundenen Zugehörigkeiten zu entscheiden.

Um dies greifbarer werden zu lassen, möchte hier einen kurzen historischen Exkurs anbieten:

In den Jahren der Industrialisierung zogen die Menschen nicht nur vom Land in die Städte. In vielen Industriegebieten bildeten sich Siedlungsgemeinschaften[3], mit einem entsprechenden, dörflichen Charakter.  Die Werkssiedlungen sind heute zum Teil als „Erbe der Industriekultur“ geschützt. Doch was bedeutete diese Lebensform?

Die Familien hatten ihren Wohnraum und den sozialen Nahraum im Bereich des Werksgeländes. Dadurch war der Eigentümer (und Arbeitgeber) in der Lage zu kontrollieren, wer mit welchen Botschaften an die Arbeiter_innen herantreten konnte. Schule, Ausbildung, Sportvereine und geselliges Brauchtum spielte sich in einem milieuspezifischen, überschaubaren Rahmen ab.

Wenn wir heute von „Filterblasen“ und „Echoraum“ durch die Algorithmen lesen, scheint mir dabei die Unterschiedlichkeit von Lebenswelten noch immer nicht ins Bewusstsein gelangt zu sein.

Simmels Kreuzung zeigt schön auf, dass wir nur mit jenen in Austausch gehen können, die wir kennen. Lebenswelten (Interessen, Weltzugänge, Werte) die uns so bekannt sind, dass wir anschlussfähig sind, finden sich als Erklärung bei Luhmann ebenso, wie die Schwierigkeit miteinander zu kommunizieren, wenn die Begriffe [4] unterschiedlich besetzt sind.

 

Zurück zum Topic des Beitrags – was bedeutet das für die Ergebnisse der Studie?

  1. Die Jugendlichen können nur erkennen und unterscheiden, was sie als Unterscheidbar begreifen können, weil es ihnen bekannt ist.
  2. Die Intentionen derer, die Informationen bereitstellen, zu erkennen geht nur dann, wenn die Möglichkeit, dass es unterschiedliche Interessen geben könnte als solche bewusst ist.
  3. Die Generationen zuvor sind auch nicht „besser“.
  4. Es ist die auch (medien)pädagogische Aufgabe, das (kognitive) Handwerkszeug zum kritischen Diskurs zu vermitteln.
  5. Eine Aufgabe der Pädagogik besteht darin, ihr eigenes Normalitätskonstrukt kritisch zu reflektieren und sich der Vielfalt von möglichen Grenzlinien bewusst zu werden.
  6. Dies Bewusstsein sollte im Idealfall zu einer Wertneutralität führen, die nicht Toleranz mit Opfertum verwechselt, sondern die Werte, Normen und Dogmen als solche einer kritischen Betrachtung unterzieht und auf ihre kulturelle Entstehung hin betrachtet.
  7. Dies kann dazu führen, dass eine aufrichtige Wertschätzung für das „Alte[5]“ entsteht, die es dennoch nicht zwanghaft erhalten muss.
  8. Es soll dazu führen, dass die Richtung von Veränderungen durch Grundwerte der gegenseitigen Achtung gestaltet wird (analog zum Gebot der Gottes- Selbst- und Nächstenliebe, wie zu den UN Menschenrechten).

 

Quellen und Fußnoten

t3n 2016 http://t3n.de/news/news-werbung-internet-unterscheiden-jugendliche-769460/?xing_share=news

[1] „Das alles ist handwerklich durchaus gut gemacht; mehrfach wurden Geschichten aus der Umschau sogar mit Journalistenpreisen ausgezeichnet. Neben Artikeln ist das Magazin prallvoll mit dem, was jeder Verlagsmanager gerne sieht: Anzeigen. Für Medikamente und Reisen, Badewannenlifte und Gedenkmünzen. Seitenpreis: rund 63.000 Euro.“

https://www.welt.de/wirtschaft/article13815044/Der-zwiespaeltige-Erfolg-der-Apotheken-Umschau.html

[2] Die Interessenslagen sind dabei unter Umständen sehr verschieden – und der Umgang damit ungewohnt. „Kommerzielle Kommunikation ist essentiell für unsere Wirtschaftsordnung! Daher ist jeder politische Eingriff in die Werbungbedenklich für unsere Marktwirtschaft.“ Dr. Hans-Henning Wiegmann

Quelle: www.zaw.de, 13.03.2015. http://www.zaw.de/zaw/zitate_texte/zitat_10.php

[3] Die entsprechenden Dynamiken finden sich z.B. bei Elias/Scotson (1965) „Etablierte und Außenseiter“ hervorragend skizziert. Die Ergebnisse lassen sich auf viele der aktuellen Marginaliserungsprozesse von Gruppen übertragen.

[4] Nimmt man Luhmanns binären Code, so sind in den Systemen die Werte nicht nur zweipolig und stehen sich damit diametral gegenüber. Sie sind auch untereinander nicht in er Lage miteinander so zu kommunizieren, dass sie einander „verstehen“, sondern sie beziehen sich (vom Ziel) nur auf den Selbsterhalt – somit auf sich selbst. Nimmt man Watzlawick und den gemäßigten Konstruktivismus hinzu, werden die Folgen deutlich, besonders prägnant in der Geschichte vom Hammer.

[5] In den Mythen der Welt und den Kindergeschichten, wie Hui Buh, kann das Alte aufhören zu spuken (und dem Neuen in die Suppe zu spucken), wenn es erkannt und in seinem Kontext als sinnvoll begriffen/gesehen wurde. Vielleicht wert, auf dieser Basis zu prüfen, was in unseren kulturellen Leit-Bildern alles spukt….

Autorin: Sabine Oymanns
Bildungswissenschafterin MA familylab-Seminarleiterin Als Seminarleiterin, Wissenschaftlerin und als Mensch liegen mir Herausforderungen am Herzen. Wie können wir mit Begrenzungen und Grenzen umgehen? Wie sagen wir Ja und Nein und was sagen wir, wenn wir uns grad nicht in der Lage fühlen uns zu entscheiden? Die Gestaltung der Interaktionen, Reflexion der Prozesse und die wertschätzende Integration der eigenen Lebenserfahrung sind für mich die Schlüssel zum Gelingen. Hierbei fließen interdisziplinäre Zugänge in meine Arbeit ein, die ich individuell mit dem Menschen vor mir auswähle.

 

Hinweis: 
Passend zum Thema des Beitrages findet am 9.12. um 11.00 das Webinar „Factchecking im Internet“ statt.

Factchecking im Internet – Webinar

Zur Werkzeugleiste springen