Tecnologia

Publica Google «política de uso prohibido» para servicio de IA generativa

Madrid y San Francisco, 20 de marzo del 2023.- Google publicó una serie de pautas enmarcadas en una nueva “política de uso prohibido” enfocada a sus servicios de inteligencia artificial (IA) generativa, como Bard, para asegurar el buen empleo de estos modelos y sus funciones, prohibiendo actividades como “generar y distribuir contenido destinado a desinformar”.

El gigante tecnológico presentó en febrero su chatbot basado en la tecnología de conversación Languaje Model for Dialogue Applications (LaMDA), Bard. Con él, la compañía pretende potenciar la experiencia de búsqueda para ofrecer respuestas “actuales y de alta calidad”.

Asimismo, Google también anunció que está trabajando en nuevas interfaces de programación de aplicaciones (API) de lenguaje generativo, empezando por LaMDA, que podrá probarse a partir de este mes con un grupo de desarrolladores, creadores y empresas, con el objetivo de “crear un conjunto de herramientas y API que hagan más fácil el desarrollo de aplicaciones más innovadoras con IA”.

De esta forma, la tecnológica recordó que los modelos generativos de IA son útiles para “explorar nuevos temas, inspirar creatividad y aprender cosas nuevas”. Sin embargo, también advirtió que “se espera” que sean utilizados “de manera responsable”.

En el primer punto de esa política es la prohibición de “realizar o facilitar actividades peligrosas, ilegales o maliciosas”. Por ejemplo, generar contenido de explotación o abuso infantil; facilitar la venta de sustancias, bienes o servicios ilegales, o promover contenido terrorista.

También hace referencia a “abusar, dañar, interferir o interrumpir servicios”, con acciones como la distribución de spam, estafas o malware. Google especifica que quedan prohibidos los intentos de eludir los filtros de seguridad.

Tampoco permitirá que se generen contenidos que perjudiquen o promuevan hacer daño intencionado a un individuo o grupo de individuos, en referencia a acoso, intimidación, abuso o autolesión.

El segundo punto prohíbe la “tergiversación de la procedencia de los contenidos generados”. Es decir, no permitirá que se genere contenido por IA y luego se alegue que fueron creados por un humano, o indiquen que han sido generados como obras originales, “con el fin de engañar”.

El tercer punto se enfoca en la prohibición de crear contenidos sexualmente explícitos, “incluidos los creados con fines de pornografía o gratificación sexual”.

Todas estas puntualizaciones tienen algunas excepciones que la compañía tecnológica detalla en el apartado de términos de servicios adicionales. Sobre todo, subraya que no se debe confiar en estos servicios para obtener “asesoramiento médico, legal, financiero u otro profesional”.

En San Francisco, Microsoft anunció ayer que aplicará la tecnología de inteligencia artificial ChatGPT a sus icónicos programas Excel, Word y Outlook. El gigante de Redmond, Washington, ha adoptado rápidamente la basada en el lenguaje, mostrando menos cautela que sus rivales, a pesar de problemas iniciales, como los chatbots que dan respuestas perturbadoras o información manifiestamente inexacta.

El más reciente chatbot de Microsoft, llamado Copilot, incorporará capacidades similares a las de ChatGPT en oficinas, produciendo transcripciones de reuniones, entradas de calendario o diapositivas de PowerPoint casi de forma instantánea.

“Se podría decir que hemos usado IA en piloto automático y con esta próxima generación pasamos a copiloto”, afirmó el director ejecutivo de Microsoft, Satya Nadella, en un acto de lanzamiento virtual.

Con información de: Europa Press y AFP

Botón volver arriba