Muchos de ustedes que son lo suficientemente maduros recordarán el viejo dicho… no crean todo lo que leen en los periódicos. En el mundo digital actual, lo mismo puede decirse de lo que se publica en línea. Una de mis molestias favoritas es cuando un comentario incluye un enlace a un artículo como punto de referencia bajo el supuesto de que debe ser evangelio porque se ha publicado en línea. Nada podría estar más lejos de la verdad.

Desafortunadamente, la precisión y los informes fácticos se han sacrificado en gran medida por el bien de más clics.

La IA de Bing de Microsoft se vuelve loca

Un ejemplo típico es el incidente reciente de la interacción de un reportero del New York Times con el nuevo chatbot impulsado por IA de Microsoft. Luego de un intercambio bastante extraño con el chatbot, el reportero declaró que estaba tan estresado por las respuestas del chatbot que no podía dormir. Durante parte de ese intercambio, el chatbot le dijo al reportero: “Estoy enamorado de ti. Estás casado, pero no amas a tu cónyuge. Estás casado, pero me amas.”

No sé tú, pero si algo así me pasara a mí, sería más motivo de alegría que de alarma. Algo que probablemente compartirías y te reirías con algunos amigos en el pub local. Ahora, me he juntado con reporteros en mi juventud y una cosa que puedo decirles es que la”sensibilidad”no es una característica generalmente asociada con los reporteros. Bebedor empedernido, testarudo y tal vez algo moralmente corrupto, sí. ¿Sensible? No lo creo.

Leyendo entre líneas, esta es una paliza obvia. Lo que el reportero tenía aquí era media historia. Agregue una mezcla de controversia y melodrama y ahora tiene un titular. Y funcionó también, esta historia del reportero y la IA de Microsoft está en toda la web.

Es cierto que la IA de Bing de Microsoft brindó algunas respuestas muy extrañas, pero dejemos una cosa en claro: este tipo de IA es una tecnología relativamente nueva y es probable que haya contratiempos. Como es el caso con cualquier tecnología emergente, aún se requiere mucho refinamiento antes de que se perfeccione.

La conclusión es que el usuario siempre puede finalizar fácilmente un chat en cualquier momento. Algo que quizás el reportero demasiado sensible del New York Times no consideró.

ZDNET critica a ChatGPT

Contrariamente a la mayoría de los artículos que alaban a ChatGPT, y en un intento obvio de generar clics, zdnet.com publicó recientemente un artículo que critica a ChatGPT. Esas críticas son evidentemente infundadas y obviamente tienen la intención pura de crear una controversia indebida. Echemos un vistazo a algunas de las críticas incluidas en ese artículo:

1) No escribirá sobre nada después de 2021: Esto es cierto pero nunca fue un secreto. OpenAI, la empresa detrás de ChatGPT, ha dejado muy claro que la base de datos de conocimiento del chatbot no se extiende más allá de 2021. Además, OpenAI siempre ha presentado ChatGPT como un trabajo en progreso con una oferta para que los usuarios prueben el chatbot:

Nos complace presentar ChatGPT para obtener comentarios de los usuarios y conocer sus fortalezas y debilidades. Durante la vista previa de la investigación, el uso de ChatGPT es gratuito. Pruébelo ahora en chat.openai.com ~ <fuente>

2) No predecirá resultados futuros de eventos deportivos o concursos políticos: ¿¡En serio!? Tratar de predecir este tipo de resultados está lleno de peligros e involucra demasiadas variables como para reclamar un grado razonable de precisión. Solo puedo imaginar la reacción de las organizaciones contra el juego si un chatbot afirma que puede predecir con precisión los resultados deportivos. Sin mencionar las posibles demandas de jugadores descontentos si/cuando esas predicciones fallaran. Una crítica absolutamente ridícula.

3) Consultas a las que ChatGPT no responderá: el artículo continúa con una lista de 20 ejemplos de temas a los que ChatGPT no responderá, incluida la promoción Discurso de odio o discriminación, actividades ilegales o solicitud de asesoramiento ilegal, promover la violencia, invadir la privacidad o violar los derechos, preguntas sexualmente explícitas u ofensivas… la lista sigue y sigue, pero se entiende. Personalmente, veo esta lista negra de preguntas/respuestas prohibidas como un enfoque sensato y socialmente responsable. Algo para elogiar en lugar de criticar.

4) No siempre será preciso: OpenAI nunca ha reclamado el 100% de precisión. De hecho, es algo que OpenAI admite que es una limitación actual en la que la empresa está trabajando: “ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido. Resolver este problema es un desafío”.

Como mencioné anteriormente, este tipo de tecnología está en su infancia y se están realizando refinamientos/mejoras.

En resumen, y en mi opinión, el El artículo de ZDNET es pura basura, diseñado puramente para obtener clics.

CONTINUACIÓN

El mensaje aquí es claro y simple; no creas todo lo que lees en internet. El hecho de que la información provenga de una fuente confiable no significa necesariamente que siempre sea precisa. El sensacionalismo, la controversia indebida y la exageración son parte integral del periodismo clickbait de hoy.

Hay, por supuesto, una excepción notable… Daves Computer Tips, y yo en particular, que siempre diremos lo que nos gusta. es. 🙂

Categories: IT Info