Google lanzó este martes para todo el público su robot conversacional Bard, competidor de la exitosa interfaz ChatGPT, con el objetivo de mejorar la calidad de sus respuestas a través de una mayor interacción con los usuarios.
Google habilitó el acceso público a Bard, la competencia de ChatGPT
La filial del grupo Alphabet anunció, a comienzos de febrero, la creación de Bard como una reacción a la aparición, en el pasado mes de noviembre, de ChatGPT, el robot de OpenAI creado con la colaboración de Microsoft.
El uso de Bard se limitó inicialmente a “probadores de confianza”, pero ahora está a disposición del público en general. A pesar de ello, el acceso sigue siendo limitado y se estableció una lista de espera para gestionar la demanda de solicitudes de interesados. También se informó que, por ahora, esos usuarios deberán ser de Estados Unidos y Reino Unido.
Today we're starting to open up access to Bard, our early experiment that lets you collaborate with generative AI. You can use Bard to boost your productivity, accelerate your ideas and fuel your curiosity. Learn more, including how to sign up ↓ https://t.co/4zDI5RD1fr
— Google (@Google) March 21, 2023
Bard se trata de una interfaz en un sitio web, independiente del motor de búsqueda de Google, con una ventana de texto donde el usuario puede escribir preguntas. “Hemos aprendido mucho probando Bard, y el próximo gran paso para mejorarlo es recibir comentarios de más personas”, explicaron sus vicepresidentes Sissie Hsiao y Eli Collins en el sitio de Google.
“Cuanta más gente lo use, mejores serán los Modelos de Lenguaje Extenso (LLM, por sus siglas en inglés, un programa capaz de responder a preguntas formuladas en lenguaje cotidiano: ndlr) para predecir respuestas que podrían ser útiles”, explicaron.
ChatGPT fue desafiada a resolver acertijos de física: cómo le fue
Bard está construido sobre la base del LaMDA, un modelo de lenguaje diseñado por Google para generar robots conversacionales (chatbots), cuya primera versión se presentó en 2021. Ambos ejecutivos de Google reconocen que los LLM “no son perfectos” y pueden “entregar, seguramente, información inexacta, engañosa o falsa”.
Google explicó que implementó “salvaguardias” para contener la posibilidad de que el robot entregue respuestas imprecisas o inapropiadas, particularmente limitando la duración de la interacción entre Bard y los usuarios.