20240710_minsal_dengue_728x90
20240701_vacunacion_728x90
20240701_crecerjuntos_720x90
20240426_bcr_censo_728x90
20240502_censo_jorge_728x90
domfuturo_netview-728x90
20240604_dom_728x90
20231223_factura_electronica_728x90
20231124_etesal_728x90_1
20230816_dgs_728x90
20230601_agenda_primera_infancia_728X90
CEL
previous arrow
next arrow

OpenAI enfrenta cuestionamientos al disolver equipo de seguridad de IA

OpenAI ha dado un paso controvertido esta semana al disolver un equipo dedicado a mitigar los peligros a largo plazo de la inteligencia artificial (IA), en medio de crecientes críticas y preocupaciones sobre el desarrollo y la seguridad de sus tecnologías, en particular su famoso chatbot ChatGPT.

La firma con sede en San Francisco confirmó el viernes que ha comenzado la disolución del equipo conocido como “superalineación”, reasignando a sus miembros a otros proyectos e investigaciones dentro de la empresa.

El directivo del equipo de seguridad, Jan Leike, explicó en la red social X que renunció debido a desacuerdos fundamentales con la alta dirección sobre las prioridades de la empresa, especialmente en lo que respecta a la investigación y la seguridad.

El equipo de “superalineación” tenía la tarea crucial de garantizar que una futura IA general, capaz de igualar la inteligencia humana, esté alineada con los valores y objetivos de la sociedad. Sin embargo, su disolución sugiere un cambio en las prioridades de OpenAI hacia la innovación y el desarrollo tecnológico sin un enfoque tan marcado en la seguridad y la ética.

Sam Altman, cofundador y CEO de OpenAI, expresó tristeza por la marcha de Leike y reconoció que aún queda mucho por hacer en términos de investigación sobre alineación y seguridad en IA.

El equipo de “superalineación” también estaba dirigido por Ilya Sutskever, otro cofundador de OpenAI que anunció su salida recientemente.

Esta decisión llega en un momento en que OpenAI ha lanzado una nueva versión de su chatbot ChatGPT, capaz de mantener conversaciones orales fluidas con los usuarios, lo que representa un avance significativo hacia asistentes de IA más personales y potentes. Sin embargo, también plantea nuevas preocupaciones sobre la seguridad y el uso ético de la IA en la sociedad.