
Google anunció un actualización sobrealimentada a su chatbot Bard el martes: el gigante tecnológico integrará la IA generativa en los servicios más populares de la empresa, incluidos Gmail, Docs y Drive. , Mapas, YouTube y más. Junto con una nueva característica que le indica cuando Bard proporciona respuestas potencialmente inexactas, la nueva versión de la IA está codo a codo con ChatGPT para obtener el modelo en lenguaje grande más útil y accesible del mercado.
Google llama a las funciones generativas “Extensiones Bard”, con el mismo nombre que las adiciones seleccionadas por el usuario para Chrome. Con las extensiones de IA, Podremos enviar a Bard a una misión que extraiga datos de todas las partes dispares de su cuenta de Google para primera vez. Si estás planeando unas vacaciones, por ejemplo, puedes pedirle a Bard que busque las fechas que un amigo te envió Gmail, busca opciones de vuelos y hoteles en Google Flights y te diseña un itinerario diario de cosas que hacer basado en la información de YouTube. Google promete que no utilizará sus datos privados para entrenar su IA y que estas nuevas funciones son solo opcionales.
Quizás igual de importante sea una nueva herramienta de precisión que Google llama “Verificar dos veces la respuesta”. Después de hacerle una pregunta a Bard, podrás presione el botón “G” y la IA verificará si las respuestas están respaldadas por información en la web y resaltará la información. que puede haber alucinado. La función convierte a Bard en la primera herramienta de IA importante que verifica hechos sobre la marcha.
Esta nueva versión mejorada de Bard es una herramienta en su infancia, y puede que tenga errores y sea molesta, pero es un destello. del tipo de tecnología que nos han prometido desde los primeros días de la ciencia ficción. Hoy en día, tienes que entrenarte para preguntar preguntas en los términos extremadamente limitados que una computadora puede entender. No se parece en nada a las herramientas que ves en un programa como Star Trek, donde puedes ladrar “computadora” a una máquina y dar instrucciones para cualquier tarea con el mismo lenguaje que usarías para preguntarle a un humano Ser. Con estas actualizaciones de Bard, nos acercamos un pequeño pero significativo paso a ese sueño.
Gizmodo se sentó para una entrevista con Jack Krawczyk, líder de producto de Google Bard, para hablar sobre las nuevas funciones, los problemas del chatbot y cómo se ve el futuro cercano de la IA para usted.
(Esta entrevista ha sido editada para mayor claridad y coherencia..)
Jack Krawczyk: Dos cosas que escuchamos bastante consistentemente sobre los modelos de lenguaje en general es que “suena muy bien, pero no es realmente útil”. en mi vida cotidiana”. Y en segundo lugar, escuchas que inventa mucho las cosas, lo que las personas más inteligentes llaman “alucinaciones”. A partir de mañana, tenemos una respuesta a ambas esas cosas.
Somos el primer modelo de lenguaje que se integrará directamente en tu vida personal. A través del anuncio de las extensiones de Bard, finalmente tienes la posibilidad de participar y permitir que Bard recupere información de su Gmail o Google Docs o de otro lugar y ayudarle a colaborar con ello. Y con Double Check the Response, somos el único producto modelo de lenguaje que está dispuesto a admitir cuando se comete un error.
Tomás Germain: Resumiste mi reacción al el último año de noticias de IA bastante bien. Estas herramientas son increíbles, pero en mi experiencia , fundamentalmente inútil para la mayoría de las personas. Al incorporar todas las otras aplicaciones de Google, está empezando a sentirse menos como un truco de fiesta y más bien una herramienta que hace mi vida más fácil.
JK: En esencia, lo que creemos que interactúa con los modelos de lenguaje nos permite cambiar la mentalidad que tenemos con la tecnología. Estamos tan acostumbrados a pensar en la tecnología como una herramienta que hace cosas para tú, como dime cómo llegar del punto A al punto B. Hemos encontrado que las personas gravitan naturalmente hacia eso. Pero es realmente inspirador verlo como una tecnología que hace cosas con tú, lo cual no es intuitivo al principio.
He visto a gente usarlo para cosas que nunca hubiera esperado. De hecho, le pedimos a alguien que tomara una foto de su sala de estar. y preguntar: “¿cómo puedo mover mis muebles para mejorar el feng shui?” Es la parte colaborativa lo que me entusiasma. Lo llamamos “imaginación aumentada”, porque como las ideas y la curiosidad están en tu cabeza. Estamos tratando de ayudar a una Momento donde las ideas son realmente frágiles y quebradizas.
TG: Hemos visto muchos ejemplos en los que Bard o algún otro chatbot escupe algo racista o da instrucciones peligrosas. un año desde que todos conocimos ChatGPT. ¿Por qué este problema es tan difícil de resolver?
JK: Aquí es donde creo que la función Double Check es realmente útil para comprender esto a un nivel más profundo. Así que el otro día pez espada cocido, y una de las cosas que es desafiante acerca de cocinar pez espada es que puede hacer que toda tu casa huela durante varios días. Le pregunté a Bard qué hacer. Una de las sugerencias que me dio fue “lavar a tu mascota con más frecuencia”. Es una solución sorprendente, pero tiene más o menos sentido. Pero si uso la función de doble verificación, me dice que se equivocó y resulta de En la web se dice que lavar a su mascota con demasiada frecuencia puede eliminar los aceites naturales que necesita para una piel sana.
Hemos evolucionado la aplicación, por lo que va oración por oración y busca en Google para ver si puede encontrar cosas que validen su respuestas o no. En el caso del lavado de mascotas, es una respuesta bastante buena, y no es como si existiera necesariamente un bien o un mal. respuesta, pero requiere matices y contexto.
TG: Bard tiene un pequeño descargo de responsabilidad que dice que podría proporcionar información inexacta u ofensiva y que no representa las opiniones de la empresa. Más contexto es bueno, pero la crítica obvia es “¿por qué Google está lanzando una herramienta que podría dar respuestas ofensivas o inexactas en primer lugar?” ?” ¿No es eso irresponsable?
JK: Para qué son realmente útiles estas herramientas es para explorar las posibilidades. A veces, cuando estás en un estado de colaboración, haces conjeturas, ¿verdad? Creo que ese es el valor de la tecnología, y no existe ninguna herramienta para eso. Podemos darle a la gente herramientas para situaciones frágiles. Escuchamos comentarios de una persona que tiene autismo y dijeron: “Puedo darme cuenta cuando alguien que me escribe un correo electrónico está enojado, pero no No sé si la respuesta que les voy a dar hará que se enojen más”.
Para esa cuestión, necesita interpretar en lugar de analizar. Tiene esta herramienta que tiene potencial para resolver problemas que no otra tecnología podemos resolver hoy. Es por eso que tenemos que lograr este equilibrio. Llevamos seis meses en Bard. Todavía es un experimento, y esto El problema no está resuelto. Pero creemos que hay tanto bien profundo que no tenemos respuestas para el hoy de nuestras vidas. y es por eso que creemos que es fundamental poner esto en manos de la gente y recopilar comentarios.
La pregunta que te haces es, "¿por qué producir tecnología que comete errores?" errores. Quieres ser audaz aquí, pero también tienes que equilibrarlo con la responsabilidad.
TG: Me imagino que el objetivo es que algún día no haya una diferencia entre Bard y Google Search, solo será Google y obtendrás lo que sea más útil en ese momento. ¿Qué tan lejos está eso?
JK: Bueno, una analogía interesante es el cinturón de herramientas versus las herramientas. Tienes un martillo y un destornillador, pero luego está el cinturón en sí. ¿Es eso también una herramienta? Probablemente sea un debate semántico. Pero ahora mismo, la mayor parte de nuestra tecnología funciona de alguna manera como, bueno, yo. voy, voy, a este sitio para hacer este trabajo. Voy a ese sitio para hacer ese otro trabajo. Hemos Tengo todas las herramientas individuales y creo que serán potenciadas por la IA generativa. Todavía estás usando las diferentes herramientas, pero ahora ‘volver a trabajar juntos. Así es como vemos tener una experiencia generativa independiente, y creo que estamos dando el primer paso hacia que hoy.
TG: Probablemente esto no sea de lo que planeas hablar hoy. Pero quiero preguntarte sobre la sensibilidad. ¿Qué piensas? ¿Es? ¿Es esa siquiera una pregunta importante que deberíamos hacerle a personas como usted ahora mismo?
JK: Creo que el hecho de que la gente se lo pregunte significa que es una pregunta importante. ¿Lo que estamos construyendo hoy es sensible? Categóricamente, Diría que la respuesta es no. Pero hay una discusión que tener sobre si tiene la oportunidad ser sensible. Con la sentiencia, creo que en muchas formas se centra en la comparación. No he visto ninguna señal que sugiera que las computadoras pueden tener compasión. Y, basándose en los principios budistas aquí, para tener compasión, es necesario tener sufrimiento.
TG: ¿Aún no le has dado a bard ningún sensor de dolor?
JK: [Risas] No.
TG: ¿Puedes compartir algo sobre los planes de Google para integrar Bard con Android?
JK: Por el momento, Bard sigue siendo una aplicación web independiente en bard.google.com. Y la razón por la que lo mantenemos allí es que sigue siendo un experimento. Para que un experimento sea útil, debes Minimice las variables que ponga en ello. En esta fase, nuestra primera hipótesis es un modelo de lenguaje conectado con su vida personal es va a ser extremadamente útil. La segunda hipótesis es un modelo de lenguaje que está dispuesto a admitir cuando se comete un error y con qué confianza En sus propias respuestas se construirá una verdad más profunda sobre las formas en que las personas pueden involucrarse con esta idea. Esas son las dos hipótesis que estamos probando. Hay muchas más que queremos probar. Pero por ahora, estamos tratando de minimizar variables.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.