Con el crecimiento masivo de ChatGPT En los titulares diarios, Google y Microsoft respondieron mostrando chatbots de IA integrados en sus motores de búsqueda. Es obvio que la IA es el futuro. ¿Pero el futuro de qué?
En Tom's Hardware, nuestro objetivo es ampliar los límites de la tecnología para ver qué es posible, por lo que, a nivel técnico, estoy impresionado con el aspecto humano de las respuestas del chatbot. La IA es una herramienta poderosa que se puede utilizar para mejorar el aprendizaje, la productividad y el disfrute humanos. Pero el bot Bard de Google y el chatbot "New Bing" de Microsoft se basan en una premisa defectuosa y peligrosa: que a los lectores no les importa de dónde proviene su información ni quién está detrás de ella.
Según la información de autores humanos, los motores de inteligencia artificial de las dos empresas se están posicionando como alternativas a los artículos de los que han aprendido. El resultado final podría ser una web más cerrada, con menos información gratuita y menos expertos para ofrecerte buenos consejos.
Google hizo una demostración de Bard tanto en un tuit como en un evento transmitido en vivo en el que no solo brindó respuestas fácticas sino también recomendaciones. La empresa se avergonzó cuando una de las respuestas de Bard resultó ser objetivamente incorrecta, pero los problemas con Bard y New Bing van mucho más allá de la inexactitud.
Dar consejos sin aconsejar
Durante el evento en vivo, el vicepresidente sénior de Google, Prabhakar Raghavan, dijo que Bard era una buena opción para responder consultas que clasificó como NORA (Nadie tiene la respuesta correcta). “Para preguntas como estas, probablemente queramos explorar una amplia gama de opiniones o perspectivas y estar conectados con la amplitud de la sabiduría en la web”, dijo. "Las nuevas funciones generativas de IA nos ayudarán a organizar información compleja y múltiples puntos de vista directamente en los resultados de búsqueda".
El "alcance de la web" en realidad significa que el bot se apropia de datos de millones de artículos escritos por humanos que no reciben crédito ni pago por su trabajo. Pero no sabrías nada de eso viendo la producción de Bard.
Raghavan le mostró a Google la respuesta "¿cuáles son las mejores constelaciones para buscar al mirar las estrellas?" En lugar de mostrar los mejores artículos de la web sobre este tema, el motor de búsqueda muestra su propio miniartículo con su propio conjunto de constelaciones recomendadas. No hay citas que le digan de dónde vienen estos "múltiples puntos de vista", ni hay ninguna autoridad que respalde las afirmaciones que hace.
Bard dice: “Hay muchas constelaciones que puedes buscar la próxima vez que mires las estrellas. Aquí hay algunos populares. ¿Cómo sabemos que son populares y cómo sabemos que son las mejores constelaciones? ¿Bajo qué autoridad dice esto el bot? Aparentemente, se supone que debemos confiar en él.
Pero la confianza es difícil de conseguir. El tuit de la compañía mostró una situación incómoda en la que Bard da una lista de "nuevos descubrimientos" del Telescopio Espacial James Webb (JWST), pero uno de los tres puntos en realidad no es un descubrimiento nuevo. De acuerdo a NASAlas primeras imágenes de un exoplaneta se tomaron en realidad en 2004, mucho antes del lanzamiento del JWST en 2021.
Muchos revisores estarán preocupados con razón por las posibles inexactitudes de los hechos en los resultados del chatbot, pero probablemente podamos asumir que a medida que la tecnología mejore, mejorará en la eliminación de errores. El mayor problema es que los bots te dan consejos que parecen surgir de la nada, aunque obviamente se compilaron tomando contenido de escritores humanos a quienes Bard ni siquiera les da crédito.
Devaluación de la experiencia, la autoridad y la confianza
Irónicamente, el movimiento de Google va en contra de los criterios clave que la compañía dice que prioriza en las clasificaciones de búsqueda orgánica. La empresa aconseja a los editores web que considera PEZÓN (Experiencia, Pericia, Autoridad y Confianza) al decidir qué artículos están en la parte superior de una página y cuáles aparecen en la parte inferior. Considera criterios como los antecedentes del autor, si ese autor describe experiencias relevantes y si esa publicación tiene reputación de ser confiable. Por definición, un bot no puede cumplir ninguno de estos criterios.
Cuando no hay una respuesta correcta, ahí es donde más importa el contenido humano. Queremos el consejo de una fuente confiable, alguien con experiencia en el tema y un conjunto de opiniones profesionales basadas en la experiencia.
Si conocemos al autor, podemos emitir juicios sobre la fiabilidad de la información. Por eso, cuando voy a reuniones familiares, los familiares se me acercan y me hacen preguntas como "¿qué computadora portátil debo comprar?" Podrían simplemente buscar en la web esa pregunta (y tal vez deberían hacerlo), pero me conocen y creen que no los lastimaré.
Google espera que en un mundo donde todo el mundo tiene una opinión y brota en las redes sociales, la experiencia ya no importa a los usuarios. La compañía espera que lea todo lo que ve en la parte superior de su pantalla, que lo crea tanto como cualquier otra cosa y luego permanezca en el sitio para poder seguir viendo sus anuncios, una fuente de ingresos, sin interrupción. Si abandona el motor de búsqueda, estará en el sitio web de otra persona donde Google puede publicar o no los anuncios.
Bing muestra fuentes pero las entierra
La nueva implementación del chatbot de Bing es ligeramente mejor que la de Google, ya que muestra las fuentes, pero las entierra en pequeñas notas al pie, algunas de las cuales ni siquiera son visibles a menos que haga clic en un botón para expandir la respuesta.
Incluso si las citas en el chatbot de Bing fueran más importantes, todavía ofrece consejos que sería mejor obtener de alguien con experiencia. En el ejemplo anterior, el bot prepara una cena vegetariana de tres platos con un postre de chocolate. Pero, ¿cómo sé que estas son las mejores recetas o que la combinación de estos platos es buena?
Preferiría confiar en el resultado de búsqueda superior, que fue escrito por un humano que ya ha cocinado y pensado en este conjunto de platos como lo haría una persona. Sin embargo, para crédito de Bing, coloca su propio contenido junto a los resultados de búsqueda orgánicos, en lugar de empujarlos hacia abajo.
Se podría decir que los temas de demostración elegidos por Google y Microsoft son muy subjetivos. Algunas personas pensarán que Orión es la mejor constelación para observar, mientras que otras elegirán la Osa Mayor. Y eso es exactamente por qué el autor importa.
Todos nos guiamos por nuestros prejuicios y, en lugar de tratar de ocultarlos, los mejores escritores los adoptan y exponen. Si ha leído algunas de mis reseñas de computadoras portátiles, sabe que escribir es importante para mí. He probado cientos de teclados de portátiles en mi carrera; Puedo decirle cuáles son suaves y cuáles son táctiles y ágiles. Y la comodidad del teclado será un factor en mis recomendaciones si me pregunta qué modelos son los mejores. Si no te importa la calidad del teclado o te gustan las teclas esponjosas, puedes decidir darles a mis notas (o ese aspecto de ellas) menos peso.
No sabemos qué sesgos hay detrás de las listas de recetas, constelaciones o cualquier otra cosa del bot. Los datos podrían incluso ser tomados de comerciales.
Los bots de IA podrían dañar la web abierta
Admito otro sesgo. Soy un escritor profesional, y los chatbots como los que muestran Google y Bing son una amenaza existencial para cualquier persona a la que se le pague por sus palabras. La mayoría de los sitios web dependen en gran medida de la búsqueda como fuente de tráfico, y sin estos globos oculares, el modelo comercial de muchos editores no funciona. Sin tráfico significa que no hay anuncios, no hay clics de comercio electrónico, no hay ingresos ni empleos.
Eventualmente, algunos editores pueden verse obligados a cerrar sus puertas. Otros podrían refugiarse detrás de los muros de pago y otros podrían evitar que Google y Bing indexen su contenido. Los bots de IA se quedarían sin fuentes de calidad cero, lo que haría que sus consejos fueran menos confiables. Y los lectores deberían pagar más por contenido de calidad o conformarse con menos votos.
Al mismo tiempo, está claro que estos bots se entrenan indexando el contenido de escritores humanos, la mayoría de los cuales han sido pagados por los editores por su trabajo. Entonces, cuando el bot dice que Orión es una gran constelación para ver, es porque en algún momento visitó un sitio como nuestro sitio hermano. espacio.com y reunió información sobre las constelaciones. La forma en que se entrenaron los modelos es una caja negra, por lo que no sabemos qué sitios web exactos llevaron a qué afirmaciones fácticas, aunque Bing nos da una idea con sus citas.
Si lo que hacen Google y Bing constituye plagio o infracción de derechos de autor está sujeto a interpretación y puede ser determinado por un tribunal. Getty Images es actualmente perseguir la difusión estable, una empresa que genera imágenes de IA, por usar 10 millones de sus imágenes para entrenar el modelo. Me imagino a una importante editorial siguiendo su ejemplo.
Hace unos años, Amazon era creíble acusado de copiar productos de sus propios vendedores externos y luego fabricando sus propios productos con la marca Amazon, que, como era de esperar, ocupa un lugar más alto en la búsqueda interna. Suena familiar.
Se podría decir que LaMDA de Google (que impulsa a Bard) y el motor OpenAI de Bing hacen exactamente lo mismo que podría hacer un autor humano. Leen fuentes primarias y luego las resumen con sus propias palabras. Pero ningún autor humano tiene el tipo de poder de procesamiento o la base de conocimientos que tienen estas IA.
También podría argumentar que los editores necesitan una mejor fuente de tráfico que Google, y nosotros la necesitamos, pero la mayoría de los usuarios han sido capacitados para tratar la búsqueda como su primera parada en Internet. En 1997, la gente iba a Yahoo, buscaba en un directorio de sitios web, encontraba los que coincidían con sus intereses, los marcaba como favoritos y regresaba. Esto era muy similar al modelo de audiencia de la red de televisión, la revista y el periódico, ya que la mayoría de las personas tenían algunas fuentes de noticias favoritas en las que confiaban regularmente.
Pero la mayoría de los usuarios de Internet han sido capacitados para ir a plataformas de distribución como Google, Facebook y Twitter y navegar por la web desde allí. Puede que le guste y confíe en un editor, pero a menudo accede al sitio web de ese editor buscándolo en Google o Bing, a los que puede acceder directamente desde la barra de direcciones de su navegador. Será difícil para cualquier editor o incluso para un grupo de editores cambiar este comportamiento profundamente arraigado.
Más importante aún, si usted es un consumidor de información, se le trata como a un bot, se espera que absorba la información sin importarle de dónde proviene o qué tan confiable es. No es una buena experiencia de usuario.
Nota: Al igual que con todos nuestros artículos de opinión, las opiniones expresadas aquí pertenecen únicamente al autor y no a Tom's Hardware como equipo.
Deja una respuesta