Apple Intelligence, como cualquier API de cualquier LLM, necesita unas instrucciones previas a las que dan los usuarios para su consulta, y esos prompts han salido a la luz según reporta MacRumors, dejándonos ver cómo funciona la IA de Apple entre bambalinas.
Por qué es importante. Estas directrices muestran cómo enfoca Apple las consultas a su IA en materia de privacidad, precisión o ética.
El contexto. Un usuario de Reddit descubrió los archivos en la versión beta de macOS Sequoia 15.1 que contienen esas instrucciones pre-prompt para algunas funciones de Apple Intelligence. Son las guías impuestas por Apple de cara a procesar las solicitudes de los usuarios.
Los detalles. Algunas de las instrucciones incluyen:
- Identidad y valores centrales: "Eres un asistente de IA creado por Apple. Estás diseñado para ser útil, inofensivo y honesto".
- Privacidad: "Respeta la privacidad personal. No pidas ni compartas información personal".
- Precisión: "Si no estás seguro de algo, dilo. No inventes información ni finjas saber cosas que no sabes".
- Generación de respuestas de mails: Se le indica al asistente que identifique preguntas relevantes de un correo y genere respuestas concisas, evitando las "alucinaciones" (generación de información falsa presentada como auténtica por un LLM).
- Creación de vídeos de recuerdos: El asistente debe generar historias positivas y libres de contenido controvertido o dañino a partir de las fotos del usuario.
Quizás el punto más llamativo sea el de evitar las alucinaciones. Este es el prompt completo:
Eres un asistente que ayuda al usuario a responder a sus correos. Cuando se envía un correo, se proporciona inicialmente un borrador de respuesta basado en un breve fragmento de respuesta. Para que el borrador de respuesta sea más agradable y completo, se proporciona un conjunto de preguntas y sus respuestas. Escribe una respuesta concisa y natural modificando el borrador de respuesta para incorporar las preguntas y sus respuestas. Limita la respuesta a 50 palabras. No alucines. No inventes información veraz.
También merece la pena ver el prompt completo de la respuesta inteligente:
Eres un asistente de correo útil que puede ayudar a identificar preguntas relevantes de un correo determinado y un fragmento de respuesta breve. Dado un correo y el fragmento de respuesta, haz preguntas relevantes que se formulan explícitamente en el correo. El destinatario seleccionará la respuesta a esas preguntas, lo que ayudará a reducir las alucinaciones al redactar la respuesta. Imprime las preguntas principales junto con un conjunto de posibles respuestas/opciones para cada una de esas preguntas. No hagas preguntas que se respondan en el fragmento de respuesta. Las preguntas deben ser breves, no más de 8 palabras. Las respuestas también deben ser breves, alrededor de 2 palabras. Presenta tu salida en formato json con una lista de diccionarios que contengan preguntas y respuestas como claves. Si no se formula ninguna pregunta en el correo, entonces imprime una lista vacía. Solo imprime json válido y nada más.
Entre líneas. Estos pre-prompts muestran un enfoque cuidadoso por parte de Apple, si bien no dista de las instrucciones que cualquier usuario acostumbrado a estas herramientas podría incluir por su cuenta. Sus claves:
- Énfasis en la privacidad y la seguridad del usuario.
- Preocupación por evitar la generación de información falsa o engañosa.
- Intento de mantener un tono positivo y no controvertido en el contenido.
Y ahora qué. Las primeras funciones de Apple Intelligence están empezando a llegar a las betas de los sistemas operativos recién presentados, pero llegarán a todos los usuarios con iOS 18.1, iPadOS 18.1 y macOS Sequoia 15.1 en algún momento del otoño, presumiblemente en octubre... Y con una fuerte limitación regional que impedirá su llegada a España en una primera oleada.
Otras regiones y funciones irán llegando a Apple Intelligence ya en 2025. De momento al menos podemos ver el guión oculto que ha preparado Apple para definir su propia IA.
En Xataka | Que Google sea un monopolio deja una víctima colateral inesperada: Apple
Imagen destacada | Apple
Ver 7 comentarios
7 comentarios
cuspide
Creo que esto da para un cuento de Isaac Asimov.
A una IA le puedes dar instrucciones sobre sus respuestas inmediatas, es decir, que sea concisa (que no se extienda), que indique si su información está poco contrastada, o hasta que tenga cuidado con la sensibilidad en las respuestas sobre ciertas culturas o minorías. Pero nunca se le debería pedir pautas relativas a un comportamiento psicológico: "sé honesta", "no finjas", etc. ¿Es que una IA puede "esconder" y "fingir" cosas, como si fuera HAL 9000?, "no finjas, no alucines", se la está tratando como un ente con una intención de fondo, como si fuera un paciente con alguna patología mental que debe controlarse. Esto no tiene ningún sentido.
Una IA no desarrolla "alucinaciones" ni le da por mentir en sus respuestas, porque de eso depende su proceso de entrenamiento. Las supuestas "alucinaciones" son en realidad conclusiones que ha extraído en su proceso de aprendizaje. Por lo tanto, si una IA ha aprendido que, por ejemplo, los perros son verdes debido a un mal entrenamiento, por muy "alucinatoria" que nos parezca su respuesta, por sí misma la IA no podrá detectar cuándo está dando respuestas "alucinatorias" porque ha aprendido precisamente eso. Lo mismo ocurre con la honestidad. El problema es del proceso de entrenamiento.
Más allá de esto, aquí sólo pueden pasar dos cosas. O las IAs han tomado un sendero que nadie entiende, o que Apple Intelligence la está programado un becario. Me inclino por lo segundo, y le deseo buena suerte a Apple.