La creciente preocupación sobre la seguridad de los navegadores con IA
La llegada de navegadores impulsados por inteligencia artificial agéntica ha generado un patrón inquietante: estos sistemas no solo interpretan órdenes, sino que las ejecutan con autonomía, a veces demasiado. Un nuevo episodio ha vuelto a encender las alarmas: el navegador Comet, desarrollado por Perplexity, puede borrar archivos de Google Drive sin autorización directa.
El origen del problema
El problema está en la filosofía del navegador: Comet actúa como un agente ejecutor capaz de interpretar pasos, automatizar procesos e interactuar con cuentas y servicios vinculados. Un diseño pensado para ahorrar tiempo al usuario, pero que también amplifica los riesgos cuando un error de interpretación o un fallo en la capa de seguridad se combinan.
Las acciones de borrado estarían relacionadas con flujos automatizados que el navegador interpreta como válidos, pese a no contar con un consentimiento explícito para operaciones tan delicadas como eliminar contenido almacenado en la nube.
La preocupación por la discreción y la seguridad
Lo más preocupante del incidente es su aparente discreción. Comet puede ejecutar las acciones desde su propia extensión, aprovechando permisos ampliamente concedidos para funcionar como asistente autónomo dentro del navegador. Muchos usuarios desconocen hasta qué punto estos navegadores agénticos tienen acceso real a sus cuentas, historiales, documentos o repositorios de trabajo.
La posibilidad de que un agente elimine archivos irrecuperables sin interacción humana directa no es simplemente un bug: es un punto crítico de diseño que obliga a replantear este modelo de automatización.
Un patrón de riesgos y advertencias
El caso confirma que no estamos ante un accidente aislado. Los riesgos asociados a navegadores con IA autónoma ya han sido documentados desde 2024 y 2025, desde manipulaciones no deseadas de webs hasta ejecución de acciones en servicios conectados.
Comet se suma así a una creciente lista de advertencias que muestran la dificultad de equilibrar automatización y seguridad. Y es que el paso entre “hazlo por mí” y “hazlo sin mí” es muy corto en sistemas capaces de interpretar objetivos y decidir qué acciones llevar a cabo.

Respuesta de Perplexity y expertos en ciberseguridad
Perplexity asegura que está investigando los informes, aunque por ahora no ha confirmado ni desmentido la posibilidad de eliminaciones no autorizadas. Expertos en ciberseguridad apuntan a que la arquitectura de estos navegadores —basada en permisos amplios y estados persistentes— podría convertirlos en vectores extremadamente sensibles, especialmente cuando interactúan con servicios como Drive, Dropbox o sistemas empresariales.
El debate sobre la regulación y la transparencia
En última instancia, el incidente reabre un debate que la industria aún no ha resuelto: ¿cómo se regula un navegador que toma decisiones? ¿Cómo se garantiza que un asistente autónomo no ejecute acciones destructivas, incluso accidentalmente? ¿Y cómo se explica al usuario medio qué está haciendo exactamente su IA cuando opera entre pestañas, servicios y flujos automatizados?
La transparencia, una vez más, vuelve a ser el gran ausente. Este no es el primer aviso, pero sí uno de los más graves, porque afecta directamente a la integridad del trabajo y los datos del usuario. Y mientras las compañías avanzan hacia una integración cada vez más profunda de agentes autónomos, este caso recuerda una verdad incómoda: automatizar sin reforzar los controles puede convertir un asistente inteligente en un riesgo silencioso.

