El evento ha finalizado.
-
20:57 CET
Los artículos de nuestra cobertura del Google I/O 2024:
Gemini evoluciona con su modelo más rápido hasta la fecha y grandes planes para teléfonos móviles
Project Astra es el ‘Her’ de Google. Y quieren que funcione desde unas gafas de realidad aumentada
La IA generativa llega a los resultados de Google, que ahora quiere "buscar por ti"
Seguid atentos a Xataka, que tenemos muchas más noticias tech para compartir con vosotros.
¡Feliz noche!
-
20:53 CET
Xatakeros, hasta aquí el evento inaugural del Google I/O 2024. A continuación, os dejaremos los enlaces de los artículos que hemos publicado hasta momento.
¡Gracias por acompañarnos una vez más! -
20:51 CET
"¿Cuántas veces hemos mencionado IA hoy?", pregunta Pichai en el escenario. El público se ríe. La compañía ha dejado en claro que la tecnología de los algoritmos es muy importante para ella en este momento.
-
20:50 CET
Google dice que está trabajando directamente con actores del mundo educativo para desarrollar el concepto de "aprendizaje generativo". La idea es simplificar y mejorar la planificación de evaluaciones.
-
20:49 CET
Ponen de ejemplo un estudiante que se está preparando para un examen de biología. El modelo podría servirle para recordar la fórmula de la fotosíntesis. También abre la puerta a interactuar con preguntas.
-
20:47 CET
Google presenta LearnLM. Una nueva familia de modelos basados en Gemini que está orientada al aprendizaje.
-
20:45 CET
Google está implementando SynthID en su IA generativa. Se trata de una marca de agua que permitirá identificar que los contenidos han sido generados por una IA, algo especialmente útil en trabajaos de alto realismo.
-
20:43 CET
AI-Assisted Red Teaming es un grupo que está trabajando para proteger la seguridad de los modelos. Google busca evitar que su tecnología de IA pueda ser utilizada para fines no adecuados.
-
20:40 CET
Google nos lleva de viaje a India en un vídeo donde muestra cómo la tecnología de IA está siendo utilizada alrededor del mundo en diferentes idiomas.
-
20:39 CET
También estará disponible un Gemma 2 con 27.000 millones de parámetros disponible para la comunidad. En este caso tendremos que esperar unas semanas.
-
20:37 CET
Los modelos abiertos Gemma, señalan, están abiertos a los investigadores. Ahora han anunciado un modelo llamado PaliGemma, que es un modelo de visión, también abierto y disponible para la comunidad.
-
20:36 CET
-
20:36 CET
Hay una demostración de Gemini 1.5 Flash en AI Studio. Cabe señalar que podemos ingresar a la plataforma para experimentar con este modelo de manera gratuita.
-
20:33 CET
La compañía cuenta algunas de las ventajas de la API de Gemini 1.5. Como el análisis de horas de vídeo.
-
20:32 CET
Es el turno de Android 15. Acabamos de ver una de las funcionalidades de Gemini Nano. Este modelo pequeño que funciona en local también es multimodal.
-
20:31 CET
Esto es posible gracias al modelo de IA integrado en el dispositivo. Algo que permite ahorrar en transferencia de datos, pero, sobre todo, en privacidad.
-
20:30 CET
Novedades relacionadas a las llamadas. Vemos a alguien intentando cometer una típica estafa por llamada. El teléfono será capaz de detectar si están intentando timarnos con una advertencia.
-
20:29 CET
Además afirman que los beneficios de la multimodalidad también potencian las funciones de accesibilidad. Por ejemplo, describiendo con mayor precisión los elementos en pantalla, incluso elementos que encontramos en Internet, o cosas que están siendo captadas por la cámara.
-
20:28 CET
Google afirma que implementar las funciones de IA directamente sobre el sistema operativo se traduce en una mejor experiencia.
-
20:27 CET
Podremos invocar a Gemini con una pulsación larga en la barra inferior o en el botón central de nuestro Android, y todo se desarrollará en una ventana flotante. No tendremos que abrir una aplicación separada.
-
20:26 CET
Gemini puede ver lo que hay en pantalla, incluso si se trata de vídeo, para ofrecernos respuestas. También podemos cargarle un documento PDF y hacerle preguntas.
-
20:24 CET
Más novedades de Gemini. El asistente ahora será capaz de entender mejor el contexto para anticipar lo que queramos hacer.
-
20:23 CET
'Rodea para buscar' ahora podrá resolver problemas matemáticos complejos. La aplicación lidiará con fórmulas, diagramas y gráficos. Dicen que 'Rodea para buscar' está disponible ya en 100 millones de dispositivos.
-
20:22 CET
Las novedades ahora se centran en 'Rodea para buscar'. Están hablando de cómo funciona esta característica que llegó a los teléfonos Galaxy más caros en primer lugar y ha estado desplegándose en otros modelos.
-
20:21 CET
Google sigue diciendo que la IA está transformando sus productos. La IA aterriza en los teléfonos Android. Hemos visto varios avances
- Búsqueda de imágenes con rodea para buscar
- Gemini para ayudarnos en cualquier momento -
20:19 CET
La compañía señala que Gemini continúa evolucionando. Afirman que el asistente ahora es más inteligente y más rápido. También están ampliando la cantidad de idiomas compatibles a 35 a partir de hoy.
-
20:17 CET
"Puedes cargar tu tesis completa, con sus fuentes y notas", afirman. Para después interactuar con ella. Estamos hablando de que Gemini Advanced soportará hasta 2 millones de tokens.
-
20:16 CET
Google dice que Gemini tiene la ventana de contexto más amplia del mundo (en relación a los otros chatbots). El modelo podrá absorber hasta 30.000 líneas de código, una hora de vídeo.
-
20:14 CET
El asistente de IA de Google promete ser capaz de todo. De ayudarnos a encontrar alojamiento y programar actividades. Disponible a partir de este verano (no estamos seguros si para todos o de manera experimental).
-
20:13 CET
Ahora explican cómo funciona la búsqueda dinámica de Gemini para diferentes tareas, como planificar un viaje.
-
20:12 CET
También entran en escena los "Gem". Se trata de sistemas personalizados. Por ejemplo, un experto en arte.
-
20:11 CET
-
20:11 CET
Google dice que Gemini está redefiniendo la forma en la que interactuamos con la IA. La aplicación estrenará más adelante una función "en vivo" que permitirá llevar a los usuarios los beneficios de la multimodalidad.
-
20:09 CET
Algo muy interesante es que las organizaciones tendrán la posibilidad de crear sus propios "Chip" para añadir a sus espacios de trabajo con AI Teammate.
-
20:08 CET
Chip, el asistente de Teammate, puede brindar respuestas en relación a todos los documentos a los que tiene acceso.
-
20:06 CET
Tony Vincent de Google nos cuenta que Teammate puede integrarse en un chat de modo tal que todos los participantes de la conversación puedan ver sus respuestas e interactuar con él.
-
20:05 CET
¿Y si pudiéramos interactuar con Gemini mientras trabajamos con otras personas? Google quiere que su IA nos ayude a trabajar en conjunto. AI Teammate es la solución en este sentido.
-
20:04 CET
También hay novedades en hojas de cálculo de Google. La barra lateral con Gemini nos ayudará a analizar los datos, segmentarlos y más. Todo utilizando lenguaje natural.
Disponible a partir de septiembre en modo experimental. -
20:02 CET
El panel lateral de Gemini en Gmail ofrecerá acciones recomendadas. Por ejemplo: "ayúdame a organizar mis recibos". Dicen que nos ayudará a mejorar nuestro flujo de trabajo.
-
20:00 CET
Esta función de resúmenes estará disponible de manera experimental pronto.
-
19:59 CET
Google está llevando la IA generativa de Gemini a toda la bandeja de entrada, no a un correo en particular. Esto permitirá obtener información de manera holística. Interesante.
-
19:58 CET
Novedades de Gmail. Empezamos a ver algunas cosas que ya habíamos visto, ahora aparentemente en etapa de despliegue. La aplicación de correo de Google tendrá un botón con el icono de Gemini que nos permitirá generar un resumen en un instante.
-
19:57 CET
Atención: el nuevo panel de Gemini empezará a estar disponible en todo el mundo el próximo mes. Tendremos que ver si esto incluye también al Espacio Comunitario Europeo.
-
19:56 CET
Las IA se presenta como una opción para ayudarnos a resolver problemas. Si tenemos una cámara de fotos y un mecanismo no funciona, simplemente deberíamos grabar un vídeo preguntándole a Google para encontrar la solución.
-
19:54 CET
"Todo lo que necesitas es preguntar", dice Google, en relación a su nuevo enfoque de búsqueda. Nos gustaría saber exactamente cuándo podremos empezar a utilizar estas herramientas generativas. Lo sabremos pronto, probablemente.
-
19:53 CET
Rose Yao cuenta cómo el sistema multimodal de Gemini permite capturar una entrada de voz y vídeo para ofrecer respuestas.
-
19:51 CET
Google denomina a esto "una experiencia dinámica" que incluye varias categorías de búsqueda. No solo la búsqueda tradicional de páginas, sino también de imágenes, libros, películas, música, tiendas y más.
-
19:50 CET
Más ejemplos de como Gemini en Google Search puede ayudarnos a descubrir una nueva forma de buscar.
-
19:49 CET
Nos dicen que Gemini también puede planificar un evento con nosotros. Puede ayudarnos a elegir la comida perfecta y, además, ha encontrar las recetas. Es una buena forma de buscar, una forma que pretende que sea mucho más fácil conseguir lo que buscamos, sin perder calidad.
-
19:47 CET
Nos muestran un ejemplo de pedirle al Google impulsado por Gemini los mejores lugares para practicar yoga y pilates. El asistente se pondrá a trabajar para nosotros de modo tal que encontremos el mejor resultado.
-
19:46 CET
El buscador de Google abraza la IA generativa de Gemini. El modelo "hará la búsqueda por nosotros". La compañía dice que tiene tres pilares para ofrecer la mejor búsqueda:
- Capacidad para rastrear información en tiempo real
- Sistemas de calidad
- El poder de Gemini -
19:43 CET
"Hace 25 años creamos la búsqueda para ayudar a las personas a entender las olas de información", dice Pichai. "La era Gemini llevará esto a un nivel completamente nuevo. Combinando nuestras fortalezas de infraestructura".
-
19:42 CET
Pichai habla del enfoque de la compañía en centros de datos con refrigeración líquida. Y que seguirán haciendo las inversiones necesarias para tener una infraestructura de cómputo de primer nivel.
-
19:40 CET
Para responder a este escenario, la compañía presenta Trillium, un chip especializado para centros de datos de nueva generación que ofrece una mejora de 4,7 veces en rendimiento informático.
-
19:39 CET
Pichai nuevamente en el escenario para contarnos que el desarrollo de los modelos de IA requiere de mucha potencia informática. Dice que la demanda de computación para IA se ha multiplicado por un millón en los últimos 6 años.
-
19:38 CET
Hablan de "control creativo total". Y dicen que este tipo de herramientas permitirán "a todo el mundo convertirse en director".
-
19:37 CET
Google también ha estado trabajando con profesionales de la industria del cine para desarrollar esta solución de vídeo generativo. Parecen entender la necesidad de mantener cierta coherencia entre salidas de vídeo.
-
19:36 CET
Veo puede crear vídeos de 1080p a partir de indicaciones textuales y de otros cuadros de vídeo. Dicen que podremos solicitar cosas como un paisaje o un timelapse. También podremos utilizar indicaciones para añadir efectos visuales y cinematográficos.
-
19:35 CET
Pero las novedades no solo van de imágenes y vídeos. Google acaba de presentar "Veo". Un modelo de generación de vídeos que presume de muy buena calidad. Parece una respuesta a Sora de OpenAI.
-
19:34 CET
Tendremos que ver cómo responde la industria musical a esto. Google quiere que la generación de música, con Music AI Sandbox, llegue al mundo profesional.
-
19:33 CET
Eck cuenta que este modelo puede crear imágenes mucho más realistas. Puede representar la luz de una manera más creíble, más parecida a la fotografía real. También entra en escena, atención aquí, la música generativa.
"Estamos explorando formas de trabajar con artistas para expandir su creatividad", dice el ejecutivo.
-
19:31 CET
Doug Eck, director de investigación de Google Research, en el escenario. Acaba de presentar IMAGEN 3. Imagen, recordemos, es el modelo de generación de imágenes de la compañía de Mountain View.
-
19:30 CET
Estamos siendo testigos de avances muy impresionantes en el campo de la IA. Las gafas se presentan como un compañero impulsado por IA que está con nosotros en todas partes.
-
19:29 CET
-
19:29 CET
Wow, esto sí que parece estar a un nivel muy interesante. La usuaria se ha puesto unas gafas y está interactuando con el modelo de IA sin mirar el móvil. ¡Eso parece realmente cómodo!
-
19:28 CET
Parece que OpenAI no está sola en el mundo de la innovación realmente multimodal. Google está esforzándose por ponerse al día. Aunque, cabe señalar, la síntesis de voz de este sistema de Google parece menos natural que el que escuchamos ayer.
-
19:27 CET
Project Astra materializa avances relacionados a comprender la información multimodal y reducir el tiempo de respuesta. Vemos un vídeo de una usuaria preguntándole al modelo qué ve, y este responde inmediatamente con precisión.
-
19:26 CET
Wow, están anunciando algo llamado Project Astra. Dicen que se trata de un paso hacia construir agentes de IA universales que puedan ser realmente útiles en la vida cotidiana de la gente.
-
19:25 CET
También anuncia Gemini 1.5 Flash. Estamos ante un modelo más liviano en comparación con el de lanzamiento que está diseñado para la eficiencia. Pero, sobre todo, para ser rentable a nivel de tiempo de cálculo en el servidor.
-
19:23 CET
Ahora, Demis Hassabis de Google DeepMind en el escenario. El líder de esta división de IA de la compañía cuenta las novedades de AlphaFold 3 prsentadas hace unos días que puedes ver en este artículo https://www.xataka.com/medicina-y-salud/deepmind-anuncia-alphafold-3-medicamentos-desarrollados-esta-ia-negocio-multimillonario-estan-muy-cerca
-
19:21 CET
No estamos seguros de cuándo llegarán las mencionadas novedades.
-
19:21 CET
Algo muy, pero muy importante. Vemos a Gemini en Chrome haciendo cosas realmente útiles. Recordemos que Copilot está presente desde hace tiempo en Edge.
-
19:19 CET
Pichai dice que esto es posible gracias al desarrollo de la multimodalidad de sus modelos. Google se ha estado esforzando por crear un sistema capaz de combinar entrada de audio, texto y visión.
-
19:17 CET
Wow, estamos viendo un avance estupendo en la IA. Este aplicativo permite analizar la información de documentación, sintetizar una voz e interactuar con los participantes. Es como si pudieras conversar con tus documentos, ¡pero por voz!
-
19:15 CET
También hay una función que graba la conversación de Google Meet. Después podemos preguntarle a Gemini los puntos más importantes. Estamos, pero no estamos en la reunión y, al final, nos enteramos de todo. O al menos esa es la idea.
-
19:14 CET
Novedades de Google Workspace. Pichai cuenta como Gemini se integra a Gmail y otras aplicaciones de la compañía para facilitarnos la vida.
-
19:13 CET
Y también hay salto a nivel de tokens. Ahora el máximo es de 2 millones.
-
19:12 CET
Gemini 1.5 Pro llega con varias novedades. Ahora tiene mayor capacidad de razonamiento. Y, lo mejor, está disponible para todos los desarrolladores a partir de ahora a nivel global.
-
19:11 CET
GPT-40, recordemos, se presenta como un modelo multimodal nativo. Ahora Google está apuntando también en ese sentido con Gemini.
-
19:10 CET
Siguen hablando de Gemini. La compañía dice que para liberar todo el potencial de esta tecnología el modelo "debe ser multimodal desde cero". Explican que la multimodalidad permitirá ampliar enormemente las capacidades de los productos de IA. Vamos, parece una respuesta directa a los presentado por OpenAI ayer.
-
19:08 CET
Gemini potenciará la aplicación Fotos para que podamos encontrar fotos más fácilmente. La nueva función se llama "Ask fotos". Podremos preguntarle al asistente sobre nuestra biblioteca.
-
19:06 CET
La experiencia de búsqueda generativa estará disponible para todos en EEUU a partir de ahora, y se desplegará a otros países más adelante.
-
19:06 CET
Por el momento el evento va de repasar los avances realizados pr la compañía en el campo de la inteligencia artificial. También hablan de la experiencia de búsqueda de la que hablábamos antes.
-
19:04 CET
Pichai cuenta como han estado trabajando para hacer Gemini realidad. Recuerda el lanzamiento de Gemini 1.5 Pro, que puede manejar 1 millón de tokens.
-
19:03 CET
El director ejecutivo de Google está hablando de Gemini. Dice que aún estamos en los primeros días de la IA, y sugiere que todavía tenemos mucho por conocer.
-
19:02 CET
La compañía de Mountain View hace un repaso de algunas de sus innovaciones impulsadas por algoritmos. Ahora Sundar Pichai en el escenario.
-
19:01 CET
Esto acaba de comenzar y lo primero que ha mencionado Google ha sido "inteligencia artificial"
-
18:59 CET
-
18:57 CET
Así están las cosas en Mountain View en este momento. 3 minutos, amigos.
-
18:55 CET
En el ámbito de deseos personales, después de ver el directo de OpenAI de ayer espero que los asistentes virtuales den un salto que nos permiten utilizarlos con mayor naturalidad. Algunos llevamos años esperando esto.
-
18:53 CET
En menos de 10 minutos esto comienza. Recordad que una vez finalizado el evento podrás consultar un artículo con todas las novedades.
-
18:52 CET
-
18:50 CET
Lods Google I/O suelen ser el escenario ideal para conocer novedades sobre el sistema operativo de la compañía, así que probablemente tendremos noticias de Android 15.
También es posible que haya algún anuncio relacionado a la búsqueda de Google. Hace un tiempo asistimos al lanzamiento de la experiencia generativa en modo experimental.
-
18:47 CET
¿Os imagináis así en un futuro? ¿Tendrá Google una respuesta al lanzamiento de OpenAI? Veamos qué podemos esperar, según rumores.
-
18:46 CET
Desde el lanzamiento de ChatGPT en noviembre de 2022, Google ha intentado alcanzar el ritmo y calidad de productos con IA a OpenAI, pero todavía parece estar algunos pasos por detrás. La compañía fundada por Sam Altman, de hecho, ayer presentó una actualización de su chatbot, una novedad que nos acerca cada vez más a 'Her'.
-
18:43 CET
Está previsto que a partir de las 19:00 (hora peninsular española) Sundar Pichai salga al escenario y revele algunas novedades sobre el futuro de su compañía. Tenemos razones para creer que asistiremos a anuncios relacionados sobre la inteligencia artificial.
-
18:41 CET
¡Muy buenas tardes, xatakeros! ¿Estáis listos? En poco menos de 20 minutos comenzaremos con nuestra cobertura del Google I/O, el esperado evento de desarrolladores del gigante de Mountain View. Y aquí, como siempre, estaremos cubriéndolo al pie del cañón.