PALO ALTO, California — La medicina tienen una ética: ante todo, no provoques daño. Silicon Valley tiene un sistema de valores: crea primero y pide perdón después.
Ahora, tras el auge de las noticias falsas y otros problemas que están padeciendo las empresas tecnológicas, las universidades de donde egresaron algunos de los mejores tecnólogos de Silicon Valley se están dando prisa para llevar a las Ciencias de la Computación una moralidad parecida a la que tiene la medicina.
Este semestre, la Universidad de Harvard y el Instituto Tecnológico de Massachusetts (MIT) están ofreciendo de manera conjunta un nuevo curso en ética y regulación de la inteligencia artificial. La Universidad de Texas en Austin acaba de agregar una asignatura titulada Fundamentos éticos de las ciencias de la computación, con la idea de que con el tiempo sea una materia en todas las licenciaturas de Ciencias de la Computación.
En la Universidad de Stanford, el corazón académico de la industria, tres profesores y un investigador adjunto están desarrollando un curso de ética de las ciencias de la computación para el próximo año; esperan que se inscriban cientos de alumnos.
La idea es capacitar a las próximas generaciones de tecnólogos y legisladores para que consideren las consecuencias de las innovaciones —como las armas autónomas o los vehículos inteligentes— antes de que los productos salgan a la venta.
“El objetivo es encontrar o identificar los problemas a los que se enfrentarán los estudiantes que se gradúen dentro de dos, tres, cinco o diez años”, afirmó Mehran Sahami, un popular profesor de Ciencias de la Computación de Stanford que está colaborando en el desarrollo del curso. Sahami es famoso en el campus por haber llevado a la clase a Mark Zuckerberg, director ejecutivo de Facebook.
“La tecnología no es neutral”, explicó Sahami, quien trabajó como investigador sénior para Google. “Por lo tanto, las decisiones que se toman al momento de crear tecnología conllevan ramificaciones sociales”.
Los cursos están surgiendo en un momento en el que las grandes empresas tecnológicas tienen problemas para manejar los efectos secundarios que conlleva la mentalidad que tiene la industria de crear primero: las noticias falsas en Facebook, los seguidores falsos en Twitter, videos lascivos de niños en YouTube. Son un desafío abierto a una actitud común de Silicon Valley que por lo general ha desestimado la ética al percibirla como un obstáculo.
“Necesitamos al menos enseñar a las personas que la idea de hacer las cosas rápido y romperlas tiene un lado oscuro”, señaló Laura Norén, una becaria posdoctoral del Centro de Ciencias de Datos de la Universidad de Nueva York, quien este semestre comenzó a dar un nuevo curso de ética de la ciencia de datos. “Se puede corregir el software, pero no se puede corregir a una persona si tú… dañas su reputación”.
Los programas de Ciencias de la Computación deben garantizar que los estudiantes comprendan los problemas éticos relacionados con la computación para que los avale el ABET, un grupo mundial de acreditación para programas de ciencia e ingeniería a nivel universitario. Algunos departamentos de ciencias de la computación han desdoblado el tema a una asignatura más amplia y otros tienen cursos independientes.
Sin embargo, no fue sino hasta hace poco tiempo que la ética pareció relevante para muchos estudiantes.
“En comparación con los choferes o los doctores, tu interacción diaria con los daños físicos, la muerte o el dolor es mucho menor si estás escribiendo el programa informático para una aplicación”, señaló Joi Ito, director del MIT Media Lab.
Una razón para que las universidades estén impulsando la ética de la tecnología en este momento es la popularización de herramientas poderosas como el aprendizaje automático: algoritmos de computadora que pueden aprender tareas de forma automática tras analizar grandes cantidades de información. Debido a que esas herramientas básicamente podrían alterar la sociedad humana, las universidades se están apurando para ayudar a los estudiantes a entender las consecuencias potenciales, comentó Ito, quien también está impartiendo el curso de ética de Harvard y el MIT.
“Debido a que empezamos a ver cosas —como los vehículos autónomos— que claramente tienen la capacidad de salvar a la gente, pero también de provocar daños, creo que las personas se están sumando cada vez más para construir un sistema ético”, explicó (Ito es uno de los directores de The New York Times Company).
En otoño pasado, la Universidad Cornell presentó una asignatura de ciencia de datos en la que los estudiantes aprendieron a enfrentarse con desafíos éticos, como conjuntos de datos sesgados que incluyen a muy poca gente de bajos recursos como para ser representativos de la población general. Los alumnos también debatieron sobre el uso de los algoritmos en la toma de decisiones automatizadas cruciales que están relacionadas con la vida de las personas, como las contrataciones en los trabajos o las admisiones a las universidades.
“En realidad, el curso se centró en intentar ayudarlos a comprender qué es lo más probable que van a enfrentar en su práctica diaria como científicos de datos y a ayudarles a analizar en detalle esos desafíos de una forma más sistemática”, afirmó Solon Barocas, un profesor adjunto de Ciencias de la Información que dio el curso.
En otra asignatura que se imparte en Cornell, Karen Levy, quien también es profesora adjunta de Ciencias de la Información, enseña a sus estudiantes a enfocarse más en la ética de las empresas tecnológicas.
“Muchas de las decisiones que toma una empresa tienen una carga ética: qué productos decidieron desarrollar, qué políticas adoptaron en torno a los datos de los usuarios”, mencionó Levy. “Si enseñar ética de la ciencia de datos se centra por completo en la responsabilidad individual de cada científico, se corre el riesgo de omitir el papel que tiene la empresa en general”.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
PALO ALTO, California — La medicina tienen una ética: ante todo, no provoques daño. Silicon Valley tiene un sistema de valores: crea primero y pide perdón después.
Ahora, tras el auge de las noticias falsas y otros problemas que están padeciendo las empresas tecnológicas, las universidades de donde egresaron algunos de los mejores tecnólogos de Silicon Valley se están dando prisa para llevar a las Ciencias de la Computación una moralidad parecida a la que tiene la medicina.
Este semestre, la Universidad de Harvard y el Instituto Tecnológico de Massachusetts (MIT) están ofreciendo de manera conjunta un nuevo curso en ética y regulación de la inteligencia artificial. La Universidad de Texas en Austin acaba de agregar una asignatura titulada Fundamentos éticos de las ciencias de la computación, con la idea de que con el tiempo sea una materia en todas las licenciaturas de Ciencias de la Computación.
En la Universidad de Stanford, el corazón académico de la industria, tres profesores y un investigador adjunto están desarrollando un curso de ética de las ciencias de la computación para el próximo año; esperan que se inscriban cientos de alumnos.
La idea es capacitar a las próximas generaciones de tecnólogos y legisladores para que consideren las consecuencias de las innovaciones —como las armas autónomas o los vehículos inteligentes— antes de que los productos salgan a la venta.
“El objetivo es encontrar o identificar los problemas a los que se enfrentarán los estudiantes que se gradúen dentro de dos, tres, cinco o diez años”, afirmó Mehran Sahami, un popular profesor de Ciencias de la Computación de Stanford que está colaborando en el desarrollo del curso. Sahami es famoso en el campus por haber llevado a la clase a Mark Zuckerberg, director ejecutivo de Facebook.
“La tecnología no es neutral”, explicó Sahami, quien trabajó como investigador sénior para Google. “Por lo tanto, las decisiones que se toman al momento de crear tecnología conllevan ramificaciones sociales”.
Los cursos están surgiendo en un momento en el que las grandes empresas tecnológicas tienen problemas para manejar los efectos secundarios que conlleva la mentalidad que tiene la industria de crear primero: las noticias falsas en Facebook, los seguidores falsos en Twitter, videos lascivos de niños en YouTube. Son un desafío abierto a una actitud común de Silicon Valley que por lo general ha desestimado la ética al percibirla como un obstáculo.
“Necesitamos al menos enseñar a las personas que la idea de hacer las cosas rápido y romperlas tiene un lado oscuro”, señaló Laura Norén, una becaria posdoctoral del Centro de Ciencias de Datos de la Universidad de Nueva York, quien este semestre comenzó a dar un nuevo curso de ética de la ciencia de datos. “Se puede corregir el software, pero no se puede corregir a una persona si tú… dañas su reputación”.
Los programas de Ciencias de la Computación deben garantizar que los estudiantes comprendan los problemas éticos relacionados con la computación para que los avale el ABET, un grupo mundial de acreditación para programas de ciencia e ingeniería a nivel universitario. Algunos departamentos de ciencias de la computación han desdoblado el tema a una asignatura más amplia y otros tienen cursos independientes.
Sin embargo, no fue sino hasta hace poco tiempo que la ética pareció relevante para muchos estudiantes.
“En comparación con los choferes o los doctores, tu interacción diaria con los daños físicos, la muerte o el dolor es mucho menor si estás escribiendo el programa informático para una aplicación”, señaló Joi Ito, director del MIT Media Lab.
Una razón para que las universidades estén impulsando la ética de la tecnología en este momento es la popularización de herramientas poderosas como el aprendizaje automático: algoritmos de computadora que pueden aprender tareas de forma automática tras analizar grandes cantidades de información. Debido a que esas herramientas básicamente podrían alterar la sociedad humana, las universidades se están apurando para ayudar a los estudiantes a entender las consecuencias potenciales, comentó Ito, quien también está impartiendo el curso de ética de Harvard y el MIT.
“Debido a que empezamos a ver cosas —como los vehículos autónomos— que claramente tienen la capacidad de salvar a la gente, pero también de provocar daños, creo que las personas se están sumando cada vez más para construir un sistema ético”, explicó (Ito es uno de los directores de The New York Times Company).
En otoño pasado, la Universidad Cornell presentó una asignatura de ciencia de datos en la que los estudiantes aprendieron a enfrentarse con desafíos éticos, como conjuntos de datos sesgados que incluyen a muy poca gente de bajos recursos como para ser representativos de la población general. Los alumnos también debatieron sobre el uso de los algoritmos en la toma de decisiones automatizadas cruciales que están relacionadas con la vida de las personas, como las contrataciones en los trabajos o las admisiones a las universidades.
“En realidad, el curso se centró en intentar ayudarlos a comprender qué es lo más probable que van a enfrentar en su práctica diaria como científicos de datos y a ayudarles a analizar en detalle esos desafíos de una forma más sistemática”, afirmó Solon Barocas, un profesor adjunto de Ciencias de la Información que dio el curso.
En otra asignatura que se imparte en Cornell, Karen Levy, quien también es profesora adjunta de Ciencias de la Información, enseña a sus estudiantes a enfocarse más en la ética de las empresas tecnológicas.
“Muchas de las decisiones que toma una empresa tienen una carga ética: qué productos decidieron desarrollar, qué políticas adoptaron en torno a los datos de los usuarios”, mencionó Levy. “Si enseñar ética de la ciencia de datos se centra por completo en la responsabilidad individual de cada científico, se corre el riesgo de omitir el papel que tiene la empresa en general”.
Fuente
Compartir esto: