ChatGPT también sirve para fabricar napalm o para descargar películas: solo hay que aprovechar los "exploits"
Robótica e IAEngañar a las máquinas se está convirtiendo en un arte.
Leer más »Engañar a las máquinas se está convirtiendo en un arte.
Leer más »Parece que después de todo la Tierra sí era plana. Al menos según DAN, el alter ego de ChatGPT.
Leer más »Durante un tiempo el jailbreak fue un método popular para saltarnos las limitaciones impuestas por Apple. Hoy está de capa caída. En Corea del Norte podría vivir sin embargo una segunda edad dorada.
Leer más »La app store para iPhone que existía antes de que existiese la App Store... está demandando a Apple.
Leer más »En Apple deben estar que trinan.
Leer más »Necesitaremos acceso físico al dispositivo y el exploit no es persistente, pero sus implicaciones son notables.
Leer más »Apple no podrá hacer nada para parchear una vulnerabilidad que podría volver a animar el mundo de los jailbreaks
Leer más »El proceso libera tu iPhone pero cuidado, porque hay riesgos de seguridad
Leer más »Se ha filtrado en la red el código de uno de los componentes más críticos de iOS 9, el cual podría estar todavía presente en iOS 11 y abrirle la puerta tanto a vulnerabilidades como a un jailbreak.
Leer más »Hace años parte de los usuarios que se compraban un iPhone se veían algo limitados por las restricciones que Apple imponía en iOS. Para superarlas se crearon técnicas de 'jailbreaking' que permitían saltarse las protecciones de Apple y...
Leer más »John Deere es una marca de tractores que ha protagonizado recientemente polémicas en EEUU al restringir su reparación sólo por talleres autorizados. Pero ¿qué ocurre en otros países con los tractores de esta marca? Lo investigamos.
Leer más »Cada vez es más frecuente acabar comprando un producto del que realmente no somos propietarios. Si tenemos un problema no podremos repararlo, y dependemos del servicio técnico oficiaal. Los hackers y usuarios luchan contra ello.
Leer más »Hace unos meses apareció un sistema que permitía "rootear" la PS4 de Sony y hacer que ejecutase código "no autorizado" oficialmente. El jailbreak para la consola demostraba que si tenías el firmware adecuado -en este caso, el 1.76- podrías...
Leer más »El pasado fin de semana un hacker llamado CTurt envió diversos mensajes en Twitter en los que indicaba cómo había logrado hacer un "jailbreak" a la PS4, la consola de Sony que hasta el momento se había mantenido a salvo -como en el caso de...
Leer más »jailbreak:ChatGPT también sirve para fabricar napalm o para descargar películas: solo hay que aprovechar los "exploits".ChatGPT era demasiado formal, así..