Titulació | Tipus | Curs | Semestre |
---|---|---|---|
2504392 Intel·ligència Artificial / Artificial Intelligence | FB | 2 | 1 |
Aquesta assignatura no té prerequisits
Aquesta assignatura té com a objectiu familiaritzar a l’alumnat del Grau amb aquells problemes ètics, socials i polítics que poden sorgir al emprar algorismes d’intel·ligència artificial per prendre decisions que afecten a les persones.
L’assignatura defuig així de problemes que són encara ben lluny a nivell tecnològic com la idea de la singularitat o la superintel·ligència i es centra més en problemes ètics reals que ens afecten com a persones aquí i ara.
Explorarem així qüestions com els biaxios en algorismes, l’erosió a la privacitat causada per la cerca de perfils personalizats i com poden utilitzar-se per manipular les nostres decisions, però també analitzarem com aquests problemes poden detectar-se i solucionar-se presentant així marcs de referència com les auditories ètiques o explorar mètriques en algorismes que incloguin conceptes d’equitat i justícia.
1. Introducció a l’ètica i els seus marcs teòrics
1.1 L’utilitarisme
1.2 L’ètica deontològica
1.3 Teoria de la justícia
1.4 Ètica de les virtuts
2. Privacitat i perfils personalitzats
2.1 Principis per la protecció de dades
2.2 Anonimització i reidentificació
2.3 Privacitat diferencial
2.4 perfils i manipulació
2.5 la bombolla dels filtres
3. Biaixos algorítmics
3.1 Causes dels biaixos en una base de dades
3.2 Com podem detectar biaixos
3.3 exactitud versus justícia
4. Auditories ètiques
4.1 Principis bàsics per una auditoria ètica
4.2 La matriu ètica
4.3 El pre-mortem
4.4 Algorismes i mètriques equitatives
5. Ciència, tecnologia i ètica
5.1. Impacte social de les innovacions
5.2. La mediació tecnològica
5.3. La moral materialitzada
5.4. Ètica i disseny
6. RRI i IA
6.1. Què és la RRI?
6.2. La RRI aplicada a la IA
7. Ètica i robòtica
7.1. Els robots i la societat
7.2. Preocupacions ètiques a la robòtica
7.3. Robots assistencials/robots assassins
L’assignatura combinarà classes magistrals amb exercicis de debat i discussió en l’aula. Es treballarà des d’un projecte concret d’aplicació de la IA a l’esfera humana i s’estudiaran progressivament de quina forma la seva aplicació pot generar diferents problemes ètics i socials, cercant tant les causes d’aquests problemes com les possibles solucions.
Nota: es reservaran 15 minuts d'una classe, dins del calendari establert pel centre/titulació, per a la complementació per part de l'alumnat de les enquestes d'avaluació de l'actuació del professorat i d'avaluació de l'assignatura/mòdul.
Títol | Hores | ECTS | Resultats d'aprenentatge |
---|---|---|---|
Tipus: Dirigides | |||
Asistència i participació activa a classe | 22 | 0,88 | 3, 4, 5, 9, 10, 11, 12, 13 |
Classes Magistrals | 64 | 2,56 | 2, 5, 6, 8, 9, 10, 12, 13, 15 |
Seminaris | 42 | 1,68 | 1, 3, 5, 7, 8, 11, 14 |
L’avalluació s’organitza al voltant de tres proves
Podran presentar-se a reevaluació aquells estudiants que hagin suspés o no s’hagin presentat ni a la prova 1 o la prova 2. No cal haver-se presentar a cap prova per poder optar a la reevaluació. Una prova està aprovada amb una nota mínima de 5.
Els estudiants que finalment no es presentin ni a la prova 1 ni a la prova 2 constaran com a no avaluable.
Nota: es reservaran 15 minuts d'una classe, dins del calendari establert pel centre/titulació, per a la complementació per part de l'alumnat de les enquestes d'avaluació de l'actuació del professorat i d'avaluació de l'assignatura/mòdul.
Títol | Pes | Hores | ECTS | Resultats d'aprenentatge |
---|---|---|---|---|
Asistència i participació activa a classe | 20% | 2 | 0,08 | 4, 5, 10, 12, 13, 14, 15 |
Estudi de casos | 50% | 10 | 0,4 | 3, 6, 7, 9, 10, 11, 12 |
Treball en grup | 30 % | 10 | 0,4 | 1, 2, 4, 5, 8, 13, 14, 15 |
Crawford, K. (2021). The atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Dubber, M. D., Pasquale, F., & Das, S. (Eds.). (2020). The Oxford handbook of ethics of AI. Oxford Handbooks.
Latour, B. (1999) La esperanza de Pandora. Ensayos sobre la realidad de los estudios de la ciencia. Barcelona: Gedisa, 2022.
O'neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway books.
Mepham, B. (2013). Ethical principles and the ethical matrix. Practical Ethics for Food Professionals: Ethics in Research, Education and the Workplace, 52.
Pariser, E. (2011). The filter bubble: How the new personalized web is changing what we read and how we think. Penguin.
Rajkomar, A., Hardt, M., Howell, M. D., Corrado, G., & Chin, M. H. (2018). Ensuring fairness in machine learning to advance health equity. Annals of internal medicine, 169(12), 866-872.
Sparrow, R. (2007) ‘Killer robots’, Journal of Applied Philosophy, 24(1), pp. 62–77.
Vallès-Peris N and Domènech M (2020) Roboticists’ Imaginaries of Robots for Care: The Radical Imaginary as a Tool for an Ethical Discussion. Engineering Studies, 12 (3): 156-176.
Vallès-Peris, N., Domènech, M. (2021) Caring in the in-between: a proposal to introduce responsible AI and robotics to healthcare. AI & Society.
van de Poel, I. (2020) ‘Embedding Values in Artificial Intelligence (AI) Systems’, Minds and Machines, 30(3), pp. 385–409.
van Wynsberghe, A. (2013) ‘Designing Robots for Care: Care Centered Value-Sensitive Design’, Science and Engineering Ethics, 19(2), pp. 407–433.
Verbeek, P.-P. (2006) ‘Materializing Morality: Design Ethics and Technological Mediation’, Science, Technology & Human Values, 31(3), pp. 361–380.
Llenguatge de programació Python