Mrinank Sharma, era hasta ayer el jefe del equipo de Safeguards Research en Anthropic, la empresa detrás de Claude, la IA que está poniendo en aprietos a ChatGPT y Google. Anthropic nació con la promesa de ser la alternativa «segura» y «alineada» en la carrera de la inteligencia artificial. Si la persona encargada de construir esos muros de contención decide marcharse —y lo hace con una reflexión cargada de advertencias—, deja un gran interrogante para los mercados y los reguladores ¿Son compatibles los incentivos económicos actuales con la seg
|
etiquetas: ia , inteligencia artificial
Así, que sí, es el jefe de UN equipo, pero también el jefe DE seguridad.
qué podría salir mal si lo mezclas con la "frialdad" de las máquinas?
La IA sin ser consciente podría tomar el mundo como un tablero de ajedrez donde jugar una partida sangrienta.
Pues sí, debería inquietarnos, pero no por lo que piensa el autor.
Me parece correcto que si no se cumplen los niveles de seguridad que él propone se marche de la empresa, aquí habría que ver si esos niveles de seguridad son correctos o excesivos y por el "cambio de rumbo" del personaje me inclino a pensar que igual el nivel de seguridad que planteaba era demasiado estricto.
No podemos saberlo, el artículo no habla sobre el tema, con lo que queda como una opinión sin darnos los motivos de esa opinión.
www.meneame.net/go?id=4146567
«Esto pone a prueba las capacidades de los mantenedores’ para mantenerse al día con las revisiones de código, y hemos implementado una política que requiere un humano informado para cualquier código nuevo, que pueda demostrar comprensión de los cambios. Anteriormente, este… » ver todo el comentario