{"id":570,"date":"2025-04-28T05:14:00","date_gmt":"2025-04-28T05:14:00","guid":{"rendered":"https:\/\/gasmen.com.mx\/web\/?p=570"},"modified":"2025-04-25T17:16:24","modified_gmt":"2025-04-25T17:16:24","slug":"etica-y-responsabilidad-en-el-desarrollo-de-la-ia-y-la-robotica","status":"publish","type":"post","link":"https:\/\/gasmen.com.mx\/web\/etica-y-responsabilidad-en-el-desarrollo-de-la-ia-y-la-robotica\/","title":{"rendered":"\u00c9tica y Responsabilidad en el Desarrollo de la IA y la Rob\u00f3tica"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\"><strong>Dilemas \u00c9ticos: El coraz\u00f3n del debate tecnol\u00f3gico<\/strong><\/h2>\n\n\n\n<p>El avance exponencial de la IA y la rob\u00f3tica plantea dilemas \u00e9ticos que ya no son hipot\u00e9ticos, sino operativos y urgentes.<\/p>\n\n\n\n<p>La discusi\u00f3n se centra en la delegaci\u00f3n de decisiones complejas a sistemas aut\u00f3nomos, y en c\u00f3mo preservar los valores humanos fundamentales ante algoritmos que aprenden, optimizan y act\u00faan.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Toma de decisiones automatizada en contextos cr\u00edticos<\/strong><strong><br><\/strong> En sistemas aut\u00f3nomos (veh\u00edculos, robots quir\u00fargicos, drones), se requieren marcos que integren <em>modelos de decisi\u00f3n \u00e9ticos programables<\/em>. La opci\u00f3n por \u00abel menor da\u00f1o posible\u00bb no es trivial y requiere una sintaxis moral dentro de sistemas que hoy operan bajo criterios puramente matem\u00e1ticos (minimizaci\u00f3n de riesgos o costos).<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh7-rt.googleusercontent.com\/docsz\/AD_4nXdDxieG9xBA4wj5Bz_1DeY-OsTwKzpQs1l7w8kO9drwIpGMEi7WeCoFmMg1ZO0w0Fz-iJvPpGqg6kiiJ-QPgc__XWr_z4zUD3gBovBXlHuWbfHOYnwm987HnL8FSx0nIUAJGUN5bw?key=Bi8pG9Db4hY0CJ_e3PdQpa4R\" alt=\"\"\/><\/figure>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Reproducci\u00f3n de sesgos en modelos de aprendizaje<\/strong><strong><br><\/strong> La IA no es neutral.\u00a0 Cuando entrenamos un modelo con datos que ya traen prejuicios (por ejemplo, raciales, de g\u00e9nero o de nivel socioecon\u00f3mico), esos sesgos se hacen m\u00e1s grandes al usar el modelo a gran escala. Por eso es fundamental incluir desde el inicio t\u00e9cnicas de \u201caprendizaje justo\u201d (fairness-aware learning) en nuestro flujo de datos, para detectar y corregir estos sesgos antes de que causen da\u00f1o.<\/li>\n\n\n\n<li><strong>Autonom\u00eda moral vs. ejecuci\u00f3n algor\u00edtmica<\/strong><strong><br><\/strong> La rob\u00f3tica aut\u00f3noma plantea la pregunta: <em>\u00bfes programable la \u00e9tica?<\/em> La respuesta t\u00e9cnica actual es no. Los robots ejecutan, no deliberan. Por tanto, la \u00e9tica debe estar embebida en el dise\u00f1o organizacional y no solo en el c\u00f3digo.<\/li>\n\n\n\n<li><strong>Impacto en el empleo y redistribuci\u00f3n del valor<\/strong><strong><br><\/strong><strong> <\/strong>Cuando la tecnolog\u00eda y los robots empiezan a hacer tareas que antes hac\u00edan las personas, es normal que algunos puestos de trabajo desaparezcan. Pero no tiene por qu\u00e9 ser as\u00ed. Para convertir ese avance en algo positivo, necesitamos dos cosas<strong>:<\/strong>\n<ul class=\"wp-block-list\">\n<li><strong>a.- Reskilling estrat\u00e9gico:\u00a0 <\/strong>Ense\u00f1ar a tu equipo nuevas habilidades \u00fatiles en la era digital. Ejemplo pr\u00e1ctico: Si un operario perd\u00eda su puesto porque una m\u00e1quina agitaba y empaquetaba productos, lo entrenas para supervisar y mantener esa m\u00e1quina. As\u00ed pasa de operador a t\u00e9cnico de mantenimiento.<\/li>\n\n\n\n<li><strong>b.- Pol\u00edtica empresarial de inclusi\u00f3n: <\/strong>Planes claros para que nadie quede fuera: programas de formaci\u00f3n, apoyos econ\u00f3micos o convenios con escuelas.<strong> <\/strong>Ejemplo pr\u00e1ctico:<strong> <\/strong>Ofrecer becas internas para cursos de programaci\u00f3n b\u00e1sica o rob\u00f3tica colaborativa, de modo que el personal actual pueda crecer con la empresa.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Transparencia: De caja negra a caja de cristal<\/strong><\/h2>\n\n\n\n<p>La transparencia es el principal habilitador de la confianza en sistemas inteligentes. Sin trazabilidad, ni explicabilidad, la IA se vuelve opaca y dif\u00edcil de auditar, lo que mina su aceptaci\u00f3n en entornos regulados y de alta sensibilidad.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Auditabilidad algor\u00edtmica (AI Auditing)<\/strong><strong><br><\/strong> Implementar frameworks de auditor\u00eda (como LIME, SHAP o Explainable AI de Google. Cada uno de estos frameworks tiene como objetivo hacer que los modelos de inteligencia artificial sean m\u00e1s transparentes y comprensibles para las personas, permiti\u00e9ndoles ver c\u00f3mo se combinan los distintos factores para llegar a una predicci\u00f3n o decisi\u00f3n.<\/li>\n\n\n\n<li><strong>Transparencia en datasets<\/strong><strong><br><\/strong> Conocer el origen, calidad y prop\u00f3sito de los datos es tan importante como el algoritmo en s\u00ed. Se requieren fichas t\u00e9cnicas de datasets (datasheets for datasets) para documentar su composici\u00f3n, usos previstos y limitaciones \u00e9ticas.<\/li>\n\n\n\n<li><strong>Explicabilidad adaptativa<\/strong><strong><br><\/strong> No basta con explicar c\u00f3mo funciona un modelo; hay que hacerlo seg\u00fan el perfil del usuario. La explicabilidad debe ser contextual: t\u00e9cnica para expertos, pr\u00e1ctica y entendible para usuarios y regulatoria para auditores.<\/li>\n\n\n\n<li><strong>AI Governance<\/strong><strong><br><\/strong> La transparencia se convierte en un pilar de la <em>gobernanza de IA<\/em>, que debe contemplar comit\u00e9s internos de \u00e9tica, protocolos de revisi\u00f3n y mecanismos de accountability internos.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh7-rt.googleusercontent.com\/docsz\/AD_4nXelMi3ZJkqLGNcfI8hCBJWRT1DUl_yv4UYtilO0yE_IlUtC6I3CW3mFWJVsy-TdUCJHWlfVIA0kn9gI1s4BPRGykLbonFow__4GQky4EH9c797eElr-ljnLgGfLMDXxExTRT6vS?key=Bi8pG9Db4hY0CJ_e3PdQpa4R\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Responsabilidad: \u00bfQui\u00e9n responde, y c\u00f3mo?<\/strong><\/h2>\n\n\n\n<p>La responsabilidad legal, moral y operativa en IA y rob\u00f3tica debe dejar de ser difusa. No basta con saber que algo fall\u00f3: hay que identificar con precisi\u00f3n <em>d\u00f3nde<\/em>, <em>por qu\u00e9<\/em>, y <em>qui\u00e9n es responsable<\/em>.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Responsabilidad compartida y escalonada<\/strong><strong><br><\/strong> La cadena de valor de un sistema de IA abarca desde dise\u00f1adores de hardware hasta usuarios finales. Se requieren modelos contractuales que definan niveles de responsabilidad seg\u00fan el grado de intervenci\u00f3n (responsabilidad distribuida).<\/li>\n\n\n\n<li><strong>Riesgos emergentes y due diligence tecnol\u00f3gica<\/strong><strong><br><\/strong> Empresas que desarrollen o implementen IA deben adoptar procesos de <em>evaluaci\u00f3n de riesgos \u00e9ticos<\/em> previos al deployment. Esto equivale a un <em>compliance de IA<\/em>, similar al financiero o ambiental.<\/li>\n\n\n\n<li><strong>Necesidad de marcos legales actualizados<\/strong><strong><br><\/strong> La legislaci\u00f3n va por detr\u00e1s de la tecnolog\u00eda. Mientras tanto, las organizaciones deben adoptar principios rectores como los propuestos por la OCDE, la UNESCO o la IEEE, para anticiparse a futuras obligaciones regulatorias.<\/li>\n\n\n\n<li><strong>Responsabilidad proactiva, no reactiva<\/strong><strong><br><\/strong> Las empresas deben asumir que el costo de no gestionar bien los riesgos \u00e9ticos no es solo legal, sino reputacional y financiero. La confianza es un activo estrat\u00e9gico, y se construye a trav\u00e9s de una cultura de responsabilidad expl\u00edcita.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh7-rt.googleusercontent.com\/docsz\/AD_4nXf-7dWJKLxWpNQiVtKpIsG3pWJlluLmpH5nDQjNsOpGK2LowWW3j2JLs0MKnY5DdfwIVPyC6l1Mklc9aNB5Q09QfJiqC-DMbNXSfjjC1E-DxjT_PXX07u3wVo8egpPW4-6hOvColw?key=Bi8pG9Db4hY0CJ_e3PdQpa4R\" alt=\"\"\/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Principios \u00c9ticos Aplicables a la Ingenier\u00eda de IA<\/strong><\/h2>\n\n\n\n<p>Los principios no son solo declaraciones filos\u00f3ficas. Deben traducirse en <strong>r<\/strong>equisitos t\u00e9cnicos, operativos y estrat\u00e9gicos. Algunos de los m\u00e1s relevantes incluyen:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Principio<\/strong><\/td><td><strong>Traducci\u00f3n t\u00e9cnica<\/strong><\/td><td><strong>Ejemplo pr\u00e1ctico<\/strong><\/td><\/tr><tr><td>Beneficencia<\/td><td>Modelos que maximizan bienestar<\/td><td>IA m\u00e9dica para detecci\u00f3n temprana de c\u00e1ncer<\/td><\/tr><tr><td>No maleficencia<\/td><td>Controles para evitar da\u00f1os involuntarios<\/td><td>Filtros de adversarial inputs<\/td><\/tr><tr><td>Justicia<\/td><td>Algoritmos libres de sesgos estructurales<\/td><td>Score crediticio equitativo por demograf\u00eda<\/td><\/tr><tr><td>Autonom\u00eda<\/td><td>Consentimiento informado en sistemas inteligentes<\/td><td>Interfaces explicativas para usuarios<\/td><\/tr><tr><td>Responsabilidad<\/td><td>Registro y trazabilidad de decisiones automatizadas<\/td><td>Logging interno de decisiones de IA<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Estos principios deben aplicarse desde la fase inicial del dise\u00f1o del sistema hasta que deje de estar en uso.<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh7-rt.googleusercontent.com\/docsz\/AD_4nXfPAL-TwqJnWAJxV7BEf_LFd9jmx4aKnB1-59OFQgf8nPtxrBO0ZdmFzGiqSomFGX8dP2ITAK3ucFSfIZCeH5-c-GDPBta7mercOTAWwYaosK8kN31B-1pNzfGx0KFUB_O8bOfw7Q?key=Bi8pG9Db4hY0CJ_e3PdQpa4R\" alt=\"\"\/><\/figure>\n\n\n\n<p>&nbsp;<strong>Conclusi\u00f3n<\/strong><\/p>\n\n\n\n<p>La \u00e9tica en la inteligencia artificial y la rob\u00f3tica no es un extra, es fundamental para lograr que cualquier soluci\u00f3n tecnol\u00f3gica sea sostenible, escalable y aceptada por la sociedad.<\/p>\n\n\n\n<p>Las empresas que lideren esta conversi\u00f3n no solo ser\u00e1n reconocidas como innovadoras, sino como confiables. En un entorno donde la tecnolog\u00eda puede crear o destruir valor en segundos, la responsabilidad \u00e9tica es la verdadera ventaja competitiva.<\/p>\n\n\n\n<p><strong>Grupo Cisneros<\/strong> est\u00e1 comprometido con este enfoque. No dise\u00f1amos soluciones para lo posible, sino para lo correcto. Y en ese camino, la \u00e9tica es tan importante como la eficiencia.<\/p>\n\n\n\n<p>Como alguien que <em>utiliza y es impactado<\/em> por soluciones de IA y rob\u00f3tica en su vida profesional y\/o personal, \u00bfTe ha tocado vivir una situaci\u00f3n en que la IA te afect\u00f3 sin saber c\u00f3mo o por qu\u00e9?, \u00bfTe parece que las empresas desarrolladoras&nbsp; est\u00e1n siendo suficientemente responsables? \u00bfQu\u00e9 opinas como usuario?<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dilemas \u00c9ticos: El coraz\u00f3n del debate tecnol\u00f3gico El avance exponencial de la IA y la rob\u00f3tica plantea dilemas \u00e9ticos que ya no son hipot\u00e9ticos, sino operativos y urgentes. La discusi\u00f3n se centra en la delegaci\u00f3n de decisiones complejas a sistemas aut\u00f3nomos, y en c\u00f3mo preservar los valores humanos fundamentales ante algoritmos que aprenden, optimizan y &hellip;<\/p>\n<p class=\"read-more\"> <a class=\"\" href=\"https:\/\/gasmen.com.mx\/web\/etica-y-responsabilidad-en-el-desarrollo-de-la-ia-y-la-robotica\/\"> <span class=\"screen-reader-text\">\u00c9tica y Responsabilidad en el Desarrollo de la IA y la Rob\u00f3tica<\/span> Leer m\u00e1s &raquo;<\/a><\/p>\n","protected":false},"author":2,"featured_media":572,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-gradient":""}},"footnotes":""},"categories":[1],"tags":[],"class_list":["post-570","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/posts\/570","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/comments?post=570"}],"version-history":[{"count":1,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/posts\/570\/revisions"}],"predecessor-version":[{"id":573,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/posts\/570\/revisions\/573"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/media\/572"}],"wp:attachment":[{"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/media?parent=570"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/categories?post=570"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gasmen.com.mx\/web\/wp-json\/wp\/v2\/tags?post=570"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}