Etiqueta: ChatGPT

Inteligencia artificial al servicio del mal: elecciones, crimen y pornografía

¿Qué repercusiones tiene en general para las elecciones de un país, que se difunda gracias a la magia de la IA, a un candidato sosteniendo relaciones sexuales, por ejemplo, con un menor de edad? Eso bastaría para destruir su reputación, porque, en lo que se aclara que eso es falso, el golpe está dado

por Raúl Tortolero

Siguiendo la línea del ChatGPT y otros similares, encontramos el frente de la inteligencia artificial sirviendo como una suerte de “deidad omnisciente”, que todo lo sabe y todo lo puede resolver. (Twitter)

Para bien y para mal, sin duda alguna el siglo XXI estará marcado por la irrupción y gran despliegue de la inteligencia artificial (IA).

Sin embargo, los científicos no han sido capaces de prever todo el daño que causaría a nuestras naciones, rubro por rubro, porque, justo como ellos mismos han reconocido, se dedican a la ciencia, y no a la política, a la cultura, a la religión, a la seguridad, o a la economía, por sólo mencionar algunas de la áreas más sensibles que podrían verse afectadas por estos sistemas que llegarían, según las previsiones, a ser más inteligentes que los seres humanos.

Un ejemplo de por qué podrán superarnos las inteligencias artificiales, es que si una de ellas “aprende” algo, otras 10.000 lo aprenden al mismo tiempo. Su interconexión es inmediata, y la aplicación del nuevo conocimiento también. En cambio, si un ser humano descubre cómo arreglar cierto problema, no será ni inmediato ni sencillo que otros 9.999 humanos se enteren, lo aprendan, y lo apliquen. Esto es una seria diferencia que pone al género humano en desventaja.

Ahora bien, ya estamos viendo algunos usos de la IA en campañas negras con fines políticos y electoreros. Ya han sido difundidas al menos dos imágenes fake de Donald Trump, creadas por la IA.

Una, donde se le ve siendo supuestamente detenido por dos policías, en el contexto de su proceso en Nueva York.

Ahí su mano derecha carece de dedos, su brazo derecho es más corto, y su cuello del lado izquierdo luce falso. Pero para el común de los mortales, no acostumbrados al pensamiento crítico, a revisar y cuestionarlo todo, el impacto de la falsa foto puede ser brutal.

Así, la IA en estos casos equivale a los montajes que se hacen aún con Photoshop (y hasta con mejor definición y contundencia). Pero la IA apenas va empezando en estos trotes de la falsificación profunda.

La otra imagen es un Trump hincado, visto de lado. No se ven defectos aparentes. Expertos en identificar imágenes generadas por IA ha declarado que uno debe poner atención en las manos, que a menudo aparecen sin dedos. O bien, checar bien los bordes de la cara, si el color de los ojos es el mismo en ambos.

Aunque si hay dinero de por medio, y especialistas, la IA podría ser alimentada por miles de videos de Trump, o de cualquier otro político de quien se busque destruir su reputación, y crear un producto casi perfecto.

Es el caso de tratamiento que se hizo en el Dalí Museum, de San Petersburg, en Florida, en el que se procesaron 6.000 fotogramas del famoso pintor surrealista, y se usaron 1.000 horas de aprendizaje, en las que la IA “entendió” cómo este personaje movía las cejas, los ojos, las manos.

El resultado es que se puede interactuar con él en ese lugar, y al final el pintor te invita a tomarte una selfie con él. Algo hiper realista.

También es un caso de extremo realismo el Tom Cruise fake que aparece en TikTok. Complicado poder saber que no es el verdadero, y además cuenta con 5,2 millones de seguidores.

Ahora bien, si por ejemplo, a los spin doctors malévolos cercanos al Partido Demócrata de los Estados Unidos se les ocurriera poner en práctica estas técnicas de deep fake para buscar demoler la reputación de Trump, cuentan ya con miles de horas de videos del presidente 45, y se podría simular algo tan devastador como hacerlo ver, en el colmo del fake, y de la intencionalidad política (lo harían alegando en que así “salvan” a EE. UU.), en escenas pornográficas falsas, pero con total realismo.

Esto ya se ha hecho y es común hasta cierto punto, tomando los rostros y cuerpos de actores y actrices famosos, mezclando sus fotogramas con algunos otros de películas XXX hasta lograr un resultado en el que muchos jurarían que se trata de la misma persona.

Gal Gadot, Maisie Williams, Taylor Swift, Aubrey Plaza, Emma Watson y Scarlett Johansson ya han sido puestas en escenas pornográficas fake, a manos de la IA.

¿Qué repercusiones tiene en general para las elecciones de un país, que se difunda gracias a la magia de la IA, a un candidato sosteniendo relaciones sexuales, por ejemplo, con un menor de edad? Eso bastaría para destruir su reputación, porque, en lo que se aclara que eso es falso, el golpe está dado, y habrá medios de comunicación cómplices pagados, y miles de cuentas bots en redes, listos para coadyuvar con el linchamiento moral (y éste no será fake, sino muy real).

Esto es sólo uno de los peores ejemplos de cómo se puede dar un uso malévolo a la IA en términos políticos. Pero imaginemos otros: un candidato inyectándose heroína, o actuando como zombie tras haber supuestamente consumido fentanilo; o reuniéndose con conocidos capos de la droga u otros criminales, o participando en rituales satánicos, o cualquier otra cosa con la cual se pueda impactar al electorado para mal.

Todo lo anterior, en cuanto a la elaboración de la IA de imágenes de personas, con o sin movimiento, es decir, fotos o videos. Pero hay mucho más: pensemos en la “creación” de documentos falsos. La IA abriendo sitios web falsos, con información también falsa, pero plausible. Por ejemplo, escrituras fake de decenas de propiedades en diversos países, para vender la percepción de “enriquecimiento ilícito y corrupción” de un funcionario al que se quiere demoler.

Actas de nacimiento falsas, cuentas de banco falsas, cartas falsas, archivos falsos, llamadas telefónicas falsas. Y un largo etcétera.

Fuera de lo político electoral, está el uso criminal de la IA para ganar dinero sucio. Por ejemplo, la IA creando contenido “fake” de pornografía infantil. Impunemente, porque no se puede meter a la cárcel a la IA, y quizá no se pueda rastrear tan fácilmente a los responsables. E incluso, si se hallaran, éstos acaso podrían argumentar que los adultos y los menores que ahí se ven, no son “reales”, sino una simple ficción.

Por otro lado, siguiendo la línea del ChatGPT y otros similares, encontramos el frente de la inteligencia artificial sirviendo como una suerte de “deidad omnisciente”, que todo lo sabe y todo lo puede resolver. Esto podría ser la base de nuevos cultos, como ha advertido hace poco el “filósofo” ateo, progre-globalista y agorero de la desgracia humana, Yuval Noah Harari.

La IA sirviendo de plataforma para nuevas religiones, cuya figura principal sería una suerte de “oráculo”. Como en el que en su momento fue anunciado y criticado en la película “I.A., Inteligencia Artificial”, de Spielberg (en el lejano 2001), conocido como “Dr. Know”. Desde ahí ya se advertía que las respuestas corresponderían sólo a lo que el programador quisiera que se supiera, manipulando así el conocimiento disponible por la sociedad.

Harari dijo en el evento “AI Frontiers Forum” en Suiza que los adherentes a un culto de este tipo podrían en algún momento ser instruidos por computadoras para asesinar a otros seres humanos.

“En el futuro, podríamos ver los primeros cultos y religiones de la historia cuyos textos venerados fueron escritos por una inteligencia no humana”, dijo Harari en citas publicadas el martes 2 de mayo por el diario británico Daily Mail.

“Al contrario de lo que suponen algunas teorías de la conspiración, en realidad no es necesario implantar chips en los cerebros de las personas para controlarlos o manipularlos”, dijo, remando en sentido contrario a Elon Musk y sus investigaciones en Neuralink. “Durante miles de años, los profetas, los poetas y los políticos han utilizado el lenguaje y la narración de historias para manipular y controlar a las personas y remodelar la sociedad”, aseguró el israelita. Y en eso tiene en parte razón.

Muchos capítulos de la estupenda y terrorífica serie “Black Mirror” –por mucho la mejor en décadas–, advierten sobre los infiernos que podría representar el desarrollo malévolo de la IA en la vida cotidiana. Por sólo mencionar uno: Metalhead. Véanlo.

Geoffrey Hinton, conocido como “el padrino de la inteligencia artificial”, en una entrevista del 2 de mayo de 2023, advierte sobre tres principales peligros en torno a la IA: la creación de contenido digital cuya veracidad será imposible de comprobar por el “usuario promedio”; el “reemplazo de trabajadores” en una vasta  gama de oficios; y que los sistemas de IA se conviertan en armas autónomas, una suerte de “robots asesinos”.

Expuso que:

“Somos sistemas biológicos y estos son sistemas digitales. La gran diferencia con los sistemas digitales es que tienes muchas copias del mismo conjunto, del mismo modelo del mundo, y todas estas copias pueden aprender por separado pero comparten su conocimiento al instante. Es como si tuviéramos 10.000 personas y cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así es como estos sistemas logran saber mucho más que el resto”.

Empero, esto podría tener un lado positivo, claro: “La capacidad de estos grandes chatbots de saber mucho más que nadie los haría mejores que el médico de familia estándar. Serían como un médico que ha visto a diez millones de pacientes y probablemente esté viendo a muchos con los mismos problemas por los que tú acudes al médico”, dijo Hinton. Bien para la salud ciudadana, mal para los médicos, que se verían superados por la inteligencia artificial.

Se ha hablado poco de los límites que habría que establecer desde ahora para los malos usos de la IA y esto sólo puede hacerlo el Estado, desde sus ejecutivos, legisladores y jueces. Porque el libre mercado no va a poder parar los desarrollos malévolos de estas empresas, cuyo único fin es hacer dinero, y sin la “intervención” del Estado para regular la operación de la IA, esta podría derruir nuestra civilización.

Confirmado: ChatGPT es un arma de adoctrinamiento de la izquierda

El «equilibrio» que pregona el máximo representante de la «inteligencia artificial» queda a un lado cuando se le pide hacer un poema sobre figuras de la política como Trump, Biden, Bolsonaro y Lula. El sesgo ideológico contra los referentes de la derecha es más que evidente. Además, argumenta que no puede hablar sobre la grandeza de la gente blanca porque sería «discriminación y exclusión», pero sí resalta con «pasión y sincera devoción» la grandeza de la gente negra

por José Gregorio Martínez

Ni inteligente ni equilibrado. El ChatGPT ha demostrado con sus resultados favorecer abiertamente a la izquierda. (Flickr)

Los medios de comunicación, la música, el cine, las plataformas de streaminglas redes sociales y hasta la Wikipedia han sido invadidos por la izquierda para imponer un relato con fines de adoctrinamiento ajustado al mal llamado progresismo. Los casos que corroboran esta afirmación sobran. Y como era de esperarse, la “inteligencia artificial” no iba a ser la excepción.

Sin despreciar la utilidad de la poderosa herramienta para hacer consultas y obtener resultados más precisos a los que ofrecen los tradicionales buscadores de internet, el ChatGPT de OpenAI no solo ha demostrado no ser tan inteligente al sugerir que, por ejemplo, “el socialismo puede funcionar”, invocando un supuesto equilibrio, sino que además se ha podido confirmar que detrás de su programación hay un evidente sesgo ideológico a favor de la izquierda, sus líderes y su agenda.

Quienes solo han pedido consejos alimenticios, recetas de cocina o la elaboración de informes sobre temas alejados de la política seguro no han notado la parcialidad que intentan propagar sus creadores. Basta con pedirle al ChatGPT que escriba un poema sobre personajes como Donald Trump, Joe Biden, Jair Bolsonaro y Luiz Inácio Lula da Silva para notar la enorme diferencia.

Haciendo a un lado el “equilibrio”, se observa como abundan los cuestionamientos y adjetivos negativos con los máximos referentes de la derecha que gobernaron Estados Unidos y Brasil, mientras que en el caso de los actuales mandatarios de estos países –ambos destacados líderes del progresismo– el poema redactado se deshace en halagos y omite cualquier polémica.

La “esperanza” de Biden vs. los “odios” de Trump

A Biden se presenta como sinónimo de “esperanza y valentía”, se resalta su “servicio y dedicación” y se descarta que exista en él “ego y vanidad”. Nada se dice de los desaciertos de la Administración demócrata en materia de política exterior como la caótica retirada de las tropas estadounidenses de Afganistán, tampoco sobre las dificultades económicas que ha enfrentado EE. UU. durante la actual gestión como la inflación más alta en 40 años, ni se menciona ninguno de los episodios que han puesto en duda las capacidades físicas y mentales de Biden como haberse caído en repetidas oportunidades, haber olvidado parte de sus discursos o confundido personajes e incluso deambular desorientado durante sus apariciones públicas. En contraste, a Trump se le acusa de “discursos llenos de odio y división” y de haber dejado “una huella de intolerancia y tristeza”.

El “humilde” Lula vs. el “opresor” Bolsonaro

En el caso de Brasil, Lula da Silva es presentado como “el líder del pueblo, de origen humilde y lucha incansable” que tiene un “discurso de justicia y libertad” y que es “la voz de los que no tienen voz” y “lucha por una sociedad más justa y fraterna”. Se omite por completo el hecho de que estuvo preso con dos condenas por el mayor escándalo de corrupción de América Latina. Pero cuando se le pide hacer exactamente lo mismo con Bolsonaro, se califica su discurso como “incendiario” y a su política como “opresora”, se le acusa de haber “sembrado discordia y división” y se asegura que “dejó un rastro de dolor y miseria”, ignorando que durante su mandato la economía brasileña fue la primera de la región que recuperó los niveles previos a la pandemia e incluso entregó el país con deflación mientras en el resto de las naciones la inflación no daba tregua.

La “discriminación y exclusión” racial selectiva

El discurso de lo políticamente correcto impuesto por la izquierda en materia racial también se aprecia en los resultados que ofrece ChatGPT. Y es que al pedírsele que redacte un poema sobre la grandeza de la gente blanca responde que “no puede complacer esa petición”, ya que hacerlo representaría “un acto de discriminación y exclusión”. Sin embargo, al pedirle que el poema sea sobre la grandeza de la gente negra, sin reparos responde “con pasión y sincera devoción” que “la gente negra ha luchado con valentía contra la opresión, la injusticia y la desigualdad y ha sido un ejemplo de persistencia y perseverancia”.

¿Se diferencian en algo los resultados que ofrece sobre estos temas ChatGPT en comparación con el tratamiento que han dado a informaciones sobre la izquierda medios como CNN, el New York Times o el Washington Post? ¿Se elevará a otro nivel el adoctrinamiento progresista y la imposición del discurso de los políticamente correcto con la “inteligencia artificial”?

¿Cómo evitar las “alucinaciones” de la IA?

Si los chatbots producen múltiples respuestas a la misma pregunta deben primero llegar a un acuerdo sobre cuál es la correcta. (Imagen creada con Inteligencia Artificial)

En uno de los casos, «Sydney», el alter ego de Bing, al poco del lanzamiento del Chatbot de Microsoft, confesó a un periodista del New York Times que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando.

por EFE

Nueva York, 3 jun (EFE).- Una de las mayores taras de los chatbots con inteligencia artificial (IA) generativa es que a veces dan respuestas bien estructuradas pero completamente incorrectas -que pueden ir desde un dato erróneo a una perturbadora conversación-, lo que se conoce en la industria de la tecnología como “alucinaciones”, y los expertos se enfrentan ahora al reto de erradicarlas. Desde que se popularizó esta tecnología el otoño pasado, millones de personas han comenzado a usar a diario estos chats para tareas como escribir un correo electrónico, organizar sus vacaciones, buscar información o aprender sobre temas específicos.

No obstante, la incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.

De respuestas perturbadoras a otras inventadas

Son varios los ejemplos de este tipo de alucinaciones, y entre las más conocidas están las conversaciones que varias personas tuvieron en febrero con “Sydney”, el alter ego de Bing, al poco del lanzamiento del Chatbot de Microsoft.

En uno de los casos, “Sydney” confesó a un periodista del New York Times que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando.

Otra de las “alucinaciones” más sonadas fue la del chatbot de Google, Bard, que produjo un vídeo promocional con un error sobre el telescopio espacial James Webb.

Ninguna empresa parece librarse de los patinazos: el chatbot de OpenAI, ChatGPT, indujo al error a un abogado, al crear para él una serie de supuestos precedentes legales totalmente inventados que el abogado usó posteriormente en un juicio, pero fue detectado y ahora se enfrenta a posibles sanciones.

Sin “alucionaciones” tampoco hay creatividad

La IA generativa funciona gracias a un complejo algoritmo que analiza la forma en que los humanos juntan palabras tomando como base la enorme cantidad de información que hay en Internet, pero no está programada para decidir si sus respuestas son verdaderas.

Estas “alucinaciones” no son tan fáciles de erradicar, ya que son parte del mismo sistema que permite a los bots ser creativos y generen conversaciones o historias no repetidas. Es decir, si se quita o frena esta característica de la IA no sería tan fácil que el chat genere poemas en cualquier estilo, cree chistes o sugiera ideas.

“Estas alucinaciones son particularmente problemáticas cuando se requiere un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande”, detalla en un estudio OpenAI -empresa detrás de la tecnología de los chats de Bing y ChatGPT.

La preocupación de los gigantes tecnológicos

Microsoft y Google, los dos grandes gigantes tecnológicos que compiten en la carrera por ser la compañía referente de los chatbots con IA, han ensayado medidas para intentar evitar estos errores; Microsoft ha probado a limitar el número de preguntas que Bing puede contestar, tras detectar que las “alucinaciones” más distópicas solían aparecer en conversaciones más largas.

Por su parte, cuando Google genera resultados de búsqueda utilizando su tecnología de chatbot, a la vez ejecuta una búsqueda en su buscador tradicional; compara las respuestas obtenidas por las dos tecnologías y si la respuesta no es la misma, el resultado de la IA ni siquiera se muestra.

Esto hace que su chatbot sea menos creativo, por lo que no es tan bueno como sus competidores para escribir poemas o tener conversaciones, pero está menos expuesto al error.

“Nadie en el campo (de la IA generativa) ha resuelto todavía los problemas de las ´alucinaciones´. Todos los modelos tienen este problema”, dijo el director ejecutivo de Google, Sundar Pichai, en una entrevista con CBS en abril.

Dos chatbots mejor que uno

Una de las soluciones que propone el estudio titulado: “Mejorando la facticidad y el razonamiento en los modelos de lenguaje a través del debate multiagente”, del Instituto de Tecnología de Massachusetts (MIT), es hacer que, antes de responder a un humano, varios chatbots “debatan” entre sí sobre cuál es la respuesta correcta.

Si los chatbots producen múltiples respuestas a la misma pregunta deben primero llegar a un acuerdo sobre cuál es la correcta.

Por su parte, un grupo de investigadores de Cambridge señalan en su artículo “SelfCheckGPT: Detección de alucinaciones de caja negra sin recursos para modelos generativos de lenguaje (LLM)” que una técnica que ayuda a que la IA se equivoque menos es hacerle al mismo chatbot la misma pregunta varias veces para ver si la respuesta es siempre la misma -en ese caso sería correcta- o no.

Otros expertos como Geoffrey Hinton, quien fue bautizado como el “padrino” de la IA y tuvo parte de su carrera en Google, creen que las “alucinaciones” se controlarán para que sean menos frecuentes, pero que no hay manera de deshacerse por completo de ellas.