Para cualquiera que tenga acceso a Bard AI de Google, es evidente que está perdiendo la carrera de chatbots contra ChatGPT y Bing AI (¡nunca pensé que diría eso!). Se equivoca en un montón de cosas muy básicas y también es la única IA que no está segura de si es sensible. Google ha reconocido que Bard está en desarrollo beta temprano y cometerá errores. Sin embargo, los críticos han señalado cómo palidece en comparación con sus competidores. Si bien es excelente para algunas cosas, especialmente porque está entrenado en la Búsqueda de Google, todavía no está preparado para muchas tareas.
Bueno, eso es hasta ahora. Después de ser acusado de usar datos de ChatGPT directamente, el CEO de Google y Alphabet, Sundar Pichai, declaró en una entrevista en The New York Times Podcast de Hard Fork (felicitaciones: The Verge) que”Muy pronto, tal vez a medida que el [podcast] se publique, actualizaremos Bard a algunos de nuestros modelos PaLM más capaces, que traerán más capacidades, ya sea en razonamiento, codificación o respuesta a preguntas matemáticas”. También afirmó que los usuarios verían el progreso en el transcurso de la próxima semana. Es muy probable que ya esté recibiendo estas actualizaciones, y algunas personas en Bard Discord ya lo han señalado.
Aparentemente, Bard se ha estado ejecutando en una”versión liviana y eficiente de LaMDA”, que es la controvertida versión de Google. modelo de lenguaje La compañía básicamente ha limitado las capacidades de Bard para garantizar la seguridad del consumidor, como lo confirmó Sundar durante el podcast antes mencionado. Sin embargo, con la actualización, Bard recibirá una versión más potente de LaMDA que le inyectará más inteligencia y ampliará sus capacidades.
Por último, explicó que era importante no lanzar un dispositivo más capaz modelo hasta que Google pudiera garantizar que era seguro para los consumidores. Google ha dicho repetidamente que está comprometido con el desarrollo responsable de IA y con garantizar que sus modelos sean seguros. Esta semana, la industria ha propuesto congelar el lanzamiento de nuevos modelos de IA, ya que son muy potentes, y los expertos en investigación acordaron evaluar las inquietudes antes de volverse locos con esta nueva revolución de IA.