La inteligencia artificial ha ido progresando a ritmos acelerados. Un ejemplo claro lo logramos ver en la popularidad que ha conseguido la herramienta ChatGPT. Pero, existe un punto muy importante que se debe tomar en cuenta: la ética en inteligencia artificial.
A lo largo de este post se explicará cómo se maneja la ética en la inteligencia artificial, qué retos debe enfrentar y qué códigos de ética se emplean en la IA.
¿Qué es la ética en inteligencia artificial?
Se considera que la ética de la inteligencia artificial es una técnica de principios y técnicas íntegras predestinadas a informar del avance y uso responsable de este tipo de tecnología.
Poco a poco que la IA se desarrolla y cada vez es más usada, las empresas comienza a desarrollar los códigos de ética de IA.
Se considera que un código de ética de Inteligencia artificial es un reconocimiento que se especifica formalmente en la función de la inteligencia artificial en su ampliación de desarrollo continuo ante la humanidad.
El plan de un código de ética de IA es ofrecer orientación a las partes comprometidas cuando se afrontan a una decisión ética con relación al uso de inteligencia artificial.
El escritor de ciencia ficción, Isaac Asimov, pronosticó los riesgos potenciales de los dependientes de la Inteligencia Artificial autónomos mucho antes de su avance y considero que Las tres leyes de la robótica actúa como un medio para restringir esos peligros.
Fundamentado en el código de ética de Asimov, se considera que la ley impide a los robots dañar a los humanos o reconocer que los daños lleguen a los seres humanos al negarse a actuar.
Otra de las leyes dirigida a los robots es que deben obedecer a los humanos, al menos que las órdenes no se encuentren dentro del acuerdo con la primera ley.
Otra ley es aquella que ordena a los robots su protección propia en la medida en que lo realicen a conformidad con las dos leyes anteriores.
El rápido progreso de la IA en la última década ha inducido a grupos de expertos a crear medios de defensa para protegerse contra el peligro de la IA para los seres humanos.
Uno de esos expertos trabajó con programadores e investigadores de IA, así como con estudiantes de muchas disciplinas, para desarrollar las 23 pautas que actualmente se conocen como los Principios de IA de Asilomar. Y esto logra posiciona a la IA en un mejor punto para su manejo adecuado.