Vortrag auf dem 33. Forum Kommunikationskultur der Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK) am 19. November 2016 an der BTU Cottbus
Technische Dimensionen medialer Teilhabe am Beispiel von Podcasting
Shape it - or be shaped! Von der Notwendigkeit digitale Umgebungen geschlechtergerechter zu gestalten
1. SHAPE IT – OR BE SHAPED!
Von der Notwendigkeit digitale Umgebungen
geschlechtergerechter zu gestalten
Nele Heise
33. GMK-Forum Kommunikationskultur | BTU Cottbus | 19. November 2016
2. Medienforscherin an der Uni Hamburg + Graduate School
Media and Communication Hamburg
Formen, Praktiken und Rahmenbedingungen medialer
Teilhabe im digitalen Zeitalter
Ethik der Online-Kommunikation und ethische Aspekte der
Nutzung digitaler Medien
13. Code als Grundlage von Software, Anwendungen
und Interfaces prägt unser Handeln, Sein und
damit auch Teilhabeprozesse in digitalen
Medienumgebungen
Ermöglichung, Einschränkung, Anregung oder
Unterbindung bestimmter Handlungsweisen (z. B.
durch semantische Hinweise) normative
Systeme
vgl. DREYER ET AL. [2013]
14. Identität[en] Selbstauseinandersetzung Wer bin ich?
Beziehungen Sozialauseinandersetzung
Welche Position
habe ich in meiner
sozialen Umwelt?
Information Sachauseinandersetzung
Wie orientiere ich
mich in der Welt?
Codebasierte Strukturen prägen/bedingen
Schmidt [2011]
Nutzung und Produktion von (Medien-)Inhalten
Organisation/Koordination/Kommunikation von Alltag, Beruf,
soziale Prozesse und Strukturen
16. … social relations are
expressed in and shape
technologies themselves …
JUDY WAJCMAN [1991]
17. Entwicklung, Modifizierung, Anpassung digitaler
Dienste und Technologien durch verschiedene
Akteursgruppen: Designer, Unternehmen,
Werbetreibende, Anbieter von Inhalten, Dritten
Parteien, …
Einflussfaktoren:
individuell (z. B. persönliche Urteile von
Designern/Klienten)
organisational (z. B. Unternehmensleitlinien)
extern (z. B. Interventionen von Regierungen)
vgl. HEISE [2016]
18. [E]very technology has an
inherent bias. […] Only those
who know nothing of the history
of technology believe that a
technology is entirely neutral.
POSTMAN [1985/2005: 84]
19. Biases = Verzerrungen - entstehen aufgrund von:
sozialen Praktiken, Einstellungen,Vorannahmen der
Entwickler/Anbieter (Individuen, Gesellschaft, spezifische
Gruppen)
technischen Kriterien und Grenzen im Design-Prozess
Anwendungskontext (z. B. Mensch-Maschine-Interaktion)
Biases haben soziale, kulturelle, politische Ursachen und
(unbeabsichtigte) Folgen, z. B. unfaire Diskriminierung
Biases tragen zu digitaler Ungleichheit bei
vgl. HEISE [2016]
21. Gender Bias
Verzerrung oder auch Ignoranz geschlechterspezifischer
Verhältnisse (z. B. durch Darstellungsweisen oder
Formulierungen, die bestimmte Bilder evozieren)
Zuschreibung bestimmter Stereotype, Geschlechterrollen
Ungleichbehandlung – gezielt oder unbeabsichtigt
22. • Welche Rolle spielt Gender in digitalen
Medienumgebungen und codebasierten Diensten?
• Gibt es genderbezogene Biases? Und (inwiefern)
tragen sie zu digitaler Ungleichheit bei?
31. “Tech companies cannot simply delete misogyny from
society […].The idea that abusive speech or behaviour
didn’t exist before the internet is simply false.
Intolerance, in all its forms, is a deeply rooted societal
problem.”
[Nick] Pickles [Twitter UK] said it was nonsense to
suggest there was a simple algorithm to detect abuse.
“No such magical algorithm exists and, if it did, it
wouldn’t be that simple to implement because of the
complexity of understanding sentiment and context.”
The Guardian [2016]
Unternehmensverantwortung
35. The fact photos and videos of rape and
graphic violence are allowed to stay on
Facebook, while photos of breastfeeding
and nipples are removed, shows that the
process in which content is moderated is
very much gendered.
SORAYA CHEMALY [2015]
71. Algorithms are designed by humans and
humans, whether male or female, can be
sexist, whether consciously or
subconsciously, and so the algorithms
humans design can have sexist
implications, whether intended or not. […]
so long as you are basing results that is
derived from a discriminatory pool of data,
I don't think there is much hope.
GLENCORA BORRADAILE
in: Turk [2015]
79. Gender spielt eine Rolle in digitalen
Medienumgebungen: Nutzung und Zugang,
Repräsentation und Rollenbilder, Anwendungen,
Gestaltung
genderbezogene Biases in codebasierten Diensten
existieren – sie können zu unfairer Diskriminierung,
Ungleichbehandlung, Exklusion und Verstärkung von
Stereotypen führen
Ursachen: verzerrte Algorithmen, Datensätze,
Trainingsdaten; Stereotypisierung und Zuweisungen;
fehlende Diversität und Problembewusstsein auf
Anbieterseite
89. Nele Heise, M.A.
Universität Hamburg | FB Sozialwissenschaften
Journalistik und Kommunikationswissenschaft
Graduate School Media & Communication Hamburg
@neleheise
www.neleheise.de
Danke.
90. Literatur | Quellen
NATIONAL CENTER FOR WOMEN & INFORMATION TECHNOLOGY (Hrsg.) (2016). Women in Tech: The Facts (2016 Update). Online verfügbar unter:
https://www.ncwit.org/sites/default/files/resources/ncwit_women-in-it_2016-full-report_final-web06012016.pdf [19.11.2016].
BOLUKBASI, T., CHANG, K.-W., ZOU, J., SALIGRAMA, V., KALAI, A. (2016). Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word
Embeddings. ArXiv, veröffentlicht am 21. Juli 2016 unter: https://arxiv.org/abs/1607.06520 [19.11.2016].
BUNDESAGENTUR FÜR ARBEIT (2016). Der Arbeitsmarkt in Deutschland – MINT-Berufe. Online verfügbar unter:
https://statistik.arbeitsagentur.de/Statischer-Content/Arbeitsmarktberichte/Branchen-Berufe/generische-Publikationen/Broschuere-MINT-2016.pdf
[19.11.2016].
CAPLAN-BRICKER, N. (2016). Um, No, to Ummo and All Speech “Improvement” Apps. Slate.com, veröffentlicht am 10. Mai 2016 unter:
http://www.slate.com/blogs/xx_factor/2016/05/10/speech_improvement_apps_like_ummo_are_sexist_and_support_inequality.html [19.11.2016].
DREYER, S., HEISE, N., & JOHNSEN, K. (2013). “Code as code can” – oder: Warum die Online-Gesellschaft einer digitalen Staatsbürgerkunde bedarf.
Communicatio Socialis, 46(3-4), 348–358.
EVELETH, R. (2014). How Self-Tracking Apps Exclude Women. The Atlantic, veröffentlicht am 15. Dezember 2014 unter:
https://www.theatlantic.com/technology/archive/2014/12/how-self-tracking-apps-exclude-women/383673/ [19.11.2016].
FERRIER, M. (2015). How to beat Instagram and Facebook's female nipple ban? Use male nipples instead. The Guardian, veröffentlicht am 7. Juli 2015
unter: https://www.theguardian.com/lifeandstyle/shortcuts/2015/jul/07/instagram-facebook-female-nipple-ban-use-male-nipples-instead [19.11.2016].
HEISE, N. (2014). ›Bridging Technologies‹. Conceptualizing technological objects as interfaces between journalism and audience. SCM, 3(2), 153–179.
HEISE, N. (2016). Algorithmen. In: J. Heesen (Hrsg.), Handbuch Informations- und Medienethik (S. 202-209). Stuttgart, Weimar: J. B. Metzler.
HEMPEL, J. (2015). Siri and Cortana Sound Like Ladies Because of Sexism. Wired.com, veröffentlicht am 28. Oktober 2015 unter:
https://www.wired.com/2015/10/why-siri-cortana-voice-interfaces-sound-female-sexism/ [19.11.2016].
KALAI, A. (2016). How machine learning can amplify or remove gender stereotypes. Veröffentlicht am 6. August 2016 unter:
https://socialmediacollective.org/2016/08/06/amplifying-and-neutralizing-gender-bias-using-machine-learning-algorithms/ [19.11.2016].
KLEEMAN, S. (2016). Check Your Girlfriend's Hysteria With Fredrick, a Repulsive Period-Tracking App for Men. Mic.com, veröffentlicht am 20. Januar
2016 unter: https://mic.com/articles/133048/download-fredrick-a-period-tracking-app-for-men#.WQOBbJY84 [19.11.2016].
KOCH, W. & FREES, B. (2016). Dynamische Entwicklung bei mobiler Internetnutzung sowie Audios und Videos. Ergebnisse der ARD/ZDF-Onlinestudie
2016. Media Perspektiven, 9(2016), 418-437. Online verfügbar unter: http://www.ard-zdf-
onlinestudie.de/fileadmin/Onlinestudie_2016/0916_Koch_Frees.pdf [19.11.2016].
LAVILLE, S. (2016). Top tech firms urged to step up online abuse fightback. The Guardian, veröffentlicht am 11. April 2016 unter:
https://www.theguardian.com/technology/2016/apr/11/facebook-twitter-google-urged-to-step-up-online-abuse-fightback? [19.11.2016].
POSTMAN, N. (1985/2005). Amusing Ourselves to Death. Public Discourse in the Age of Show Business. New York et al.: Penguin Books.
PROUDFOOT, J. (2016). 6 Ways That Your Smartphone Could Be Sexist. Marie Claire, veröffentlicht am 21. März 2016 unter
http://www.marieclaire.co.uk/uncategorised/6-ways-that-your-smartphone-could-be-sexist-13309#MgiJluGpVfKkUdZr.99 [19.11.2016].
SCHMIDT, B. (2015). Rejecting the gender binary: a vector-space operation. Veröffentlicht am 30. Oktober 2015, verfügbar unter:
http://bookworm.benschmidt.org/posts/2015-10-30-rejecting-the-gender-binary.html#fnref5 [19.11.2016].
91. SCHMIDT, J. (2011). Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0. 2. überarb. Aufl. Konstanz: UVK Verlag.
SCHRADIE, J. (2011). The digital production gap: the digital divide and web 2.0 collide. Poetics, 39(2), 145–168.
SPICE, B. (2015). Questioning The Fairness Of Targeting Ads Online. CMU Probes Online Ad Ecosystem. Veröffentlicht am 7. Juli 2015, verfügbar unter:
https://www.cmu.edu/news/stories/archives/2015/july/online-ads-research.html [19.11.2016].
STRAUSS, K. (2016). Which Big Tech Companies Employ The Most Women? Forbes, veröffentlicht am 11. März 2016 unter:
http://www.forbes.com/sites/karstenstrauss/2016/03/11/which-big-tech-companies-employ-the-most-women/#1b2cd96ee566 [19.11.2016].
TATMAN, R. (2016). Google’s Speech Recognition Has a Gender Bias. Veröffentlicht am 12. Juli 2016, verfügbar unter:
https://makingnoiseandhearingthings.com/2016/07/12/googles-speech-recognition-has-a-gender-bias/ [19.11.2016].
TERRELL, J., KOFINK, A., MIDDLETON, J., RAINEAR, C., MURPHY-HILL, E., PARNIN, C., STALLINGS, J. (2016). Gender differences and bias in open source:
Pull request acceptance of women versus men. PeerJ Preprints 4:e1733v2. https://doi.org/10.7287/peerj.preprints.1733v2 [19.11.2016].
TURK, V. (2015). When Algorithms are Sexist. Motherboard, veröffentlicht am 20. März 2015 unter: http://motherboard.vice.com/read/when-
algorithms-are-sexist [19.11.2016].
WAJCMAN, J. (1991). Patriarchy, Technology, and Conceptions of Skill. Work and Occupations, 18(1), 29–45.
WARREN, R. (2015). The Women Taking A Stand Against Dating App Sexism. TheFader.com, veröffentlicht am 16. Dezember 2015 unter:
http://www.thefader.com/2015/12/16/social-media-sexism-tinder-facebook-bye-felipe [19.11.2016].
WILLIAMS, L. C. (2016). Overwhelming Majority Of Men In The Tech Industry Believe There Is No Gender Bias. ThinkProgress, veröffentlicht am 10.
März 2016 unter: https://thinkprogress.org/overwhelming-majority-of-men-in-the-tech-industry-believe-there-is-no-gender-bias-
613f47349710#.7avqbqf1x [19.11.2016].
Grafiken [Abruf: 19.11.2016]
FOLIE 6
Hintergrund: http://www.handwerksblatt.de/images/beitraege/recht-steuern/recht/handy_tablet_apps_123rf.jpg
Mitte links: https://static.pexels.com/photos/4957/person-woman-hand-smartphone.jpg
Mitte rechts: http://pocketnow.com/wp-content/uploads/2014/07/smartwatch-lineup-android-wear-pebble-gear-fit.jpg
FOLIE 46
Rechts oben: http://core5.staticworld.net/images/article/2016/02/siri-primary-hero-100647384-carousel.idge.jpg &
https://support.apple.com/library/content/dam/edam/applecare/images/en_US/macos/macos-sierra-siri-app-icon.png
Rechts unten: http://www.giga.de/wp-content/uploads/2015/03/Cortana-header-microsoft.jpg
FOLIE 48
Rechts: https://www.wired.com/2015/09/finally-youll-able-track-period-ios/
FOLIE 85
Hälfte unten: https://jugendhackt.org/files/2016/10/20161011_hackday_0231-1024x683.jpg
FOLIE 87
Hälfte unten: https://www.flickr.com/photos/creativegaming/30779539265/in/album-72157674898457870/