Sesgo algorítmico Definiciones Métodos Referencias Menú de navegación«Patent #US2001021914»«What is an Algorithm? – Culture Digitally»«Thinking critically about and researching algorithms»10.1080/1369118X.2016.1154087«How Google Search Works»«Here's How Your Facebook News Feed Actually Works»«The Science Behind the Netflix Algorithms That Decide What You'll Watch Next»«Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn't — ProPublica»«The future of online advertising is big data and algorithms»«How algorithms rule the world»«Knowing Algorithms»«Software-sorted geographies»10.1191/0309132505ph568oa«Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy»1530-7131«The Hidden Biases in Big Data»«Algorithmic Accountability: On the Investigation of Black Boxes |»«The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today»10.2139/ssrn.173628310.1609/aimag.v38i3.2741

Informática y sociedadDiscriminaciónAprendizaje automático


valorescontrol de Protección de datos Generalalgoritmosprogramasdatosmachine learninginteligencia artificial.científicos socialesbase de datosjerarquíasconjuntos de datos






Un gráfico de flujo que muestra las decisiones creadas por un motor de recomendación, circa 2001.[1]


El sesgo algorítmico ocurre cuándo un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. El sesgo algorítmico se puede encontrar en todos lados, como en los resultados de los motores de búsqueda o en las redes sociales y pueden tener un gran impacto en temas como la privacidad o agravar sesgos sociales como los existentes respecto a razas, género, sexualidad o etnias. El estudio del sesgo algorítmico esta enfocado sobre todo en algoritmos que reflejan "discriminación sistemática e injusta". Este tipo sesgos han empezado a ser tenidos en cuenta en marcos legales recientemente, como el control de Protección de datos General de la 2018 Unión europea.


Tan pronto como los algoritmos expanden su capacidad de organizar la sociedad, la política, las instituciones, y el comportamiento, los sociólogos han empezado a preocuparse con las maneras en que los resultados no previstos y la manipulación de datos pueden impactar el mundo físico. Como los algoritmos son a menudo considerados neutros y sin sesgos, puede parecer que son mejores que los propios humanos, y en algunos casos, relevar trabajo en un algoritmo puede reducir el control humano sobre los resultados. Los sesgos pueden repercutir en los algoritmos teniendo como origen influencias culturales, sociales, o institucionales; debido a limitaciones técnicas de su diseño; o por ser utilizado en contextos no esperados en un principio o por usuarios que no se habían considerado en el diseño inicial del software.


Los sesgos algoritmicos han afectado a temas como los resultados de las elecciones. Los problemas de comprensión, investigación, y descubrimiento de sesgos en los algoritmos provienen de la naturaleza de estos, ya que los propietarios no suelen dejar acceder a su implementación, y aunque fuera así, muchas veces son demasiado complejos para entender como funcionan. Además, los algoritmos pueden cambiar, o responder a diferentes entradas de maneras que no pueden ser previstas o fácilmente reproducidas para su análisis. En muchos casos, incluso dentro de un solo sitio web o aplicación, no hay un solo algoritmo para examinar, si no un conjunto de procesos y entradas de datos interrelacionados.



Definiciones




Un esquema de 1969 sobre cómo un programa de ordenador sencillo realiza decisiones, ilustrando un algoritmo muy básico.


Los algoritmos son difíciles de definir, pero se pueden entender como conjuntos de instrucciones dentro de un ordenador que determinan cómo estos programas leen, recogen, procesan, y analizan datos para generar una salida legible.[2][3]:13 Los ordenadores más nuevos pueden procesar millones de estas instrucciones algorítmicas por segundo, lo cual ha impulsado el diseño y adopción de tecnologías como machine learning e inteligencia artificial.[4]:14–15 Analizando y procesando datos, los algoritmos son el corazón de los motores de búsqueda, redes sociales, motores de recomendación, venta al detalle on-line, publicidad on-line, y otros.[5][6][7][8][9][10]


Los científicos sociales contemporáneos están preocupados con procesos algorítmicos incluidos en el hardware y  software debido a su impacto político y social, y cuestionan la suposición de que un algoritmo es neutral.[11]:2[12]:563[13]:294[14]​ El término sesgo algorítmico describe erroes sistemáticos y repetidos que crean resultados injustos, como dar privilegios a un grupo de usuarios por encima otros de forma arbitraria. Por ejemplo, un algoritmo de puntuación de crédito puede negar un préstamo sin ser injusto, si se fija únicamente en criterios financieros pertinentes. Si el algoritmo recomienda préstamos a un grupo de usuarios, pero niega préstamos a otro conjunto de usuarios casi idénticos basándose en criterios no relacionados, y si este comportamiento se puede repetir en distintas ocasiones, se puede decir que es un algoritmo con sesgos.:332 Estos sesgos pueden ser intencionados o involuntarios.:332



Métodos


El sesgo puede ser introducido a un algoritmo de varias maneras. Durante el montaje de una base de datos, el dato tiene que ser recogido, digitalizado, adaptado, e introducido según un diseño humano.[15]:3 Luego, los programadores asignan prioridades, o jerarquías, sobre cómo un programa evalúa y ordena los datos. Esto requiere decisiones humanas sobre cómo el dato es categorizado, y qué dato es incluido o descartado.:4 Algunos algoritmos recogen sus propios datos basados en  criterios de selección humanos, los cuales también pueden reflejar sesgos de los diseñadores.:8 Otros algoritmos pueden reforzar estereotipos y preferencias cuando procesan y muestran datos relevantes para los humanos, por ejemplo, al seleccionar información basada en elecciones anteriores de un usuario o grupo de usuarios similares.:6


Más allá de reunir y procesar datos, los sesgos pueden surgir como resultado del diseño.[16]​ Por ejemplo, algoritmos que usan ordenación en los datos, aquellos que determinan la asignación de recursos o escrutinio, o los que clasifican e identifican usuarios, los cuales pueden discriminar a un grupo cuándo calculan el riesgo basado en datos de usuarios similares.[17]:36 Por otro lado, los motores de recomendación que asocian a los usuarios con otros usuarios similares, o que infieren diferentes rasgos, podrían confiar en datos inexactos que reflejan estereotipos étnicos,de género, socio-económicos, o raciales. Otro ejemplo surgiría de determinar los criterios que dicen que incluir y excluir de los resultados. Estos criterios podrían provocar resultados inesperados en las búsquedas, como un software de recomendaciones de compañías de vuelos  que omite los vuelos de compañías que no se patrocinan igual que el resto. Los algoritmos también pueden mostrar un sesgo de incertidumbre, ofreciendo valoraciones más seguras cuándo los conjuntos de datos son más grandes. Esto puede afectar a procesos algorítmicos que analizan muestras muy grandes que hacen se ignoren otros datos o que queden en segundo plano.[18]:4



Referencias



  1. Jacobi, Jennifer (13 de septiembre de 2001). «Patent #US2001021914». Espacenet. Consultado el 4 de julio de 2018. 


  2. Striphas, Ted. «What is an Algorithm? – Culture Digitally». culturedigitally.org. Consultado el 20 de noviembre de 2017. 


  3. Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to algorithms (3rd edición). Cambridge, Mass.: MIT Press. p. 5. ISBN 978-0-262-03384-8. 


  4. Kitchin, Rob (25 de febrero de 2016). «Thinking critically about and researching algorithms». Information, Communication & Society 20 (1): 14-29. doi:10.1080/1369118X.2016.1154087. Consultado el 19 de noviembre de 2017. 


  5. Google. «How Google Search Works». Consultado el 19 de noviembre de 2017.  |autor= y |apellido= redundantes (ayuda)|autor= y |apellido= redundantes (ayuda)


  6. Luckerson, Victor. «Here's How Your Facebook News Feed Actually Works». TIME.com. Consultado el 19 de noviembre de 2017. 


  7. Vanderbilt, Tom (7 de agosto de 2013). «The Science Behind the Netflix Algorithms That Decide What You'll Watch Next». Wired. Consultado el 19 de noviembre de 2017. 


  8. Angwin, Julia (20 de septiembre de 2016). «Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn't — ProPublica». ProPublica (en inglés estadounidense). Consultado el 19 de noviembre de 2017. 


  9. Livingstone, Rob. «The future of online advertising is big data and algorithms». The Conversation (en inglés). Consultado el 19 de noviembre de 2017. 


  10. Hickman, Leo (1 de julio de 2013). «How algorithms rule the world». Consultado el 19 de noviembre de 2017. 


  11. Seaver, Nick. «Knowing Algorithms». Media in Transition 8, Cambridge, MA, April 2013. Consultado el 18 de noviembre de 2017. 


  12. Graham, Stephen D.N. (July 2016). «Software-sorted geographies». Progress in Human Geography 29 (5): 562-580. doi:10.1191/0309132505ph568oa. 


  13. Tewell, Eamon (4 de abril de 2016). «Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy». Portal: Libraries and the Academy 16 (2): 289-310. ISSN 1530-7131. Consultado el 19 de noviembre de 2017. 


  14. Crawford, Kate (1 de abril de 2013). «The Hidden Biases in Big Data». Harvard Business Review. 


  15. Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). Media Technologies. Cambridge: MIT Press. pp. 1-30. ISBN 9780262525374. 


  16. Diakopoulas, Nicholas. «Algorithmic Accountability: On the Investigation of Black Boxes |». towcenter.org (en inglés). Consultado el 19 de noviembre de 2017. 


  17. Lipartito, Kenneth (6 de enero de 2011). «The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today». SSRN Electronic Journal. doi:10.2139/ssrn.1736283. 


  18. Goodman, Bryce; Flaxman, Seth (2017). «EU regulations on algorithmic decision-making and a "right to explanation"». AI Magazine 38 (3): 50. doi:10.1609/aimag.v38i3.2741. 








Popular posts from this blog

Möglingen Índice Localización Historia Demografía Referencias Enlaces externos Menú de navegación48°53′18″N 9°07′45″E / 48.888333333333, 9.129166666666748°53′18″N 9°07′45″E / 48.888333333333, 9.1291666666667Sitio web oficial Mapa de Möglingen«Gemeinden in Deutschland nach Fläche, Bevölkerung und Postleitzahl am 30.09.2016»Möglingen

Virtualbox - Configuration error: Querying “UUID” failed (VERR_CFGM_VALUE_NOT_FOUND)“VERR_SUPLIB_WORLD_WRITABLE” error when trying to installing OS in virtualboxVirtual Box Kernel errorFailed to open a seesion for the virtual machineFailed to open a session for the virtual machineUbuntu 14.04 LTS Virtualbox errorcan't use VM VirtualBoxusing virtualboxI can't run Linux-64 Bit on VirtualBoxUnable to insert the virtual optical disk (VBoxguestaddition) in virtual machine for ubuntu server in win 10VirtuaBox in Ubuntu 18.04 Issues with Win10.ISO Installation

Antonio De Lisio Carrera Referencias Menú de navegación«Caracas: evolución relacional multipleja»«Cuando los gobiernos subestiman a las localidades: L a Iniciativa para la Integración de la Infraestructura Regional Suramericana (IIRSA) en la frontera Colombo-Venezolana»«Maestría en Planificación Integral del Ambiente»«La Metrópoli Caraqueña: Expansión Simplificadora o Articulación Diversificante»«La Metrópoli Caraqueña: Expansión Simplificadora o Articulación Diversificante»«Conózcanos»«Caracas: evolución relacional multipleja»«La Metrópoli Caraqueña: Expansión Simplificadora o Articulación Diversificante»