jueves, noviembre 21, 2024
Cristela

En medio de todo el hype causado por ChatGPT y la revolución que representan los últimos avances en inteligencia artificial, dos cosas son ciertas: la IA generativa no solo ya es una realidad, es un camino sin retorno; predecir adónde nos llevará sigue siendo una conjetura.

Si las herramientas de inteligencia artificial se vuelven indispensables a una velocidad a veces aterradora, la comprensión de cómo estas tecnologías afectan a nuestra sociedad, cómo deben regularse y cómo podemos evitar los efectos adversos que causan, camina a un ritmo mucho más lento. Al mejor estilo de “cambiar la llanta mientras el auto está en movimiento”, el mundo entero se enfrenta a las infinitas posibilidades de los nuevos avances tecnológicos en IA y la urgente necesidad de limitar los posibles abusos, y las consecuencias nocivas del mal uso de estas herramientas.

Recientemente, al abrir este tipo de discusión tanto oficialmente como a nivel gubernamental, el gobierno de los EE. UU. anunció que está solicitando oficialmente comentarios públicos sobre cómo crear medidas de responsabilidad para la IA, buscando ayuda sobre cómo asesorar a los responsables políticos de los EE. UU. para abordar la tecnología que ya viene siendo utilizada, muchas veces indiscriminadamente, en los más variados sectores productivos de nuestra sociedad.

En el caso del sector de la comunicación, las posibilidades, retos e incertidumbres han dado un salto tecnológico exponencial a raíz del desarrollo de la IA. Las organizaciones y profesionales del sector que no están al menos explorando el potencial de las tecnologías, aparentemente pueden estar quedándose atrás. Las agencias de relaciones públicas y marketing, la prensa y los medios de comunicación, en general, ya utilizan herramientas de IA como brazo para crear contenidos de forma más rápida y eficiente, para minimizar los errores humanos en tareas repetitivas, realizar búsquedas más amplias en tiempos reducidos e incluso sustituyendo a algunos profesionales antes irremplazables, como una televisión China que estrenó un robot (creado con IA) como presentador de noticias.

Según una encuesta reciente que realizamos a través de las redes sociales de MarketCross, el 58 % de los encuestados dijeron que ya usan IA para el análisis de datos en sus campañas de relaciones públicas, mientras que el 67 % dijeron que usan ChatGPT en la creación de contenido.

Sin embargo, hablando específicamente desde la perspectiva de las relaciones públicas, una industria construida sobre la base de interacciones humanas y conexiones genuinas, es crucial tener en cuenta que una parte fundamental de nuestro trabajo se realiza con subjetividad, sensibilidad y empatía. Quizás por ello, paradójicamente, cuanto más avanza la tecnología, más importante se vuelve el factor humano, sobre todo teniendo en cuenta lo mucho que las estrategias de relaciones públicas se basan en matices y complejidades emocionales, elementos (todavía) indescifrables para las herramientas de la inteligencia artificial.

Si es cierto que la tecnología de IA ya es capaz de producir poemas, canciones, ilustraciones e incluso esculturas, también lo es que todo arte producido por IA es, fundamentalmente, producto de la recopilación y reinterpretación de obras concebidas originalmente por seres humanos. Es decir, el límite creativo de los modelos de inteligencia artificial está directamente ligado a la producción artística humana a lo largo de la historia y en la actualidad.

Una de las consecuencias obvias de este modelo es un posible proceso de entropía del sistema de IA generativo en su conjunto. Por ahora, la gran mayoría del contenido generado por inteligencia artificial tiene como materia prima contenido producido por humanos. Sin embargo, con el uso creciente de esta tecnología, cada día es más probable que las herramientas generativas de IA utilicen contenido también generado por inteligencia artificial, iniciando un ciclo de vaciado de la sustancia emocional del contenido. Percepciones, instintos, ironías, ambivalencias y demás complejidades intrínsecamente humanas van perdiendo espacio para producciones que, a pesar de seguir una “lógica racional”, no se sostienen desde el punto de vista del fundamento subjetivo.

También hay otras cuestiones importantes, que implican la adopción de la IA en el trabajo de comunicación y producción de contenidos, como el tema de los derechos de autor. Como aún no existe una normativa que defina parámetros para las producciones generadas por IA, muchos profesionales ya se sienten perjudicados, ya que su trabajo es absorbido, reciclado y utilizado por terceros, sin ningún tipo de compensación.

Además preocupa la falta de transparencia en la forma en que se “entrenan” estas herramientas, ya que sabemos que muchas veces reproducen patrones discriminatorios y/o perpetúan la desinformación

Nuevamente, hablando específicamente desde el punto de vista de las relaciones públicas, somos responsables por el mensaje que propagan nuestros clientes, tanto desde el punto de vista creativo como legal. Por ello, es crucial que seamos transparentes con nuestros clientes sobre cómo utilizamos estas nuevas herramientas, cuáles son sus límites y qué riesgos se derivan de su uso.

Las posibilidades que ofrece la IA son prácticamente infinitas y el camino que tomarán el desarrollo tecnológico y las regulaciones legales aún es incierto. Como profesionales de la comunicación, nos corresponde a nosotros seguir de cerca el desarrollo de las nuevas herramientas de IA y participar activamente en el debate en torno a ellas, mientras aprendemos a usarlas con sabiduría, para mejorar nuestro trabajo y ofrecer los mejores resultados para nuestros clientes. Lo que no cambia es que el trabajo de relaciones públicas sigue siendo un acto de equilibrio entre el arte y la ciencia, la sensibilidad humana y la tecnología. Y que son las relaciones humanas las que realmente dan resultados.

La inteligencia artificial también está de acuerdo. Pregunté sobre la importancia del elemento humano en el trabajo de relaciones públicas, y esta es la respuesta que dio Chat GPT

Como modelo de lenguaje de IA, Chat GPT carece de la experiencia humana y la intuición que conlleva trabajar en la industria de las relaciones públicas. Si bien estoy capacitado para generar texto basado en patrones de datos lingüísticos, no tengo experiencia personal con los matices de las relaciones públicas, como las sutilezas de la comunicación humana, el desarrollo de relaciones con las partes interesadas o el impacto de la cultura y la sociedad

También le puede interesar: Adidas enfrenta el desafío de romper con Kanye West

Stefanie Klinge
Miguel Dallos