{"id":25251,"date":"2024-01-10T14:25:55","date_gmt":"2024-01-10T13:25:55","guid":{"rendered":"https:\/\/www.codemotion.com\/magazine\/?p=25251"},"modified":"2024-01-10T14:56:14","modified_gmt":"2024-01-10T13:56:14","slug":"seguridad-y-auditorias-en-modelos-grandes-del-lenguaje","status":"publish","type":"post","link":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/","title":{"rendered":"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)"},"content":{"rendered":"\n<p>Los <strong>LLM (Large Language Model)<\/strong> son una clase de modelos de <strong>inteligencia artificial (IA)<\/strong> que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano. Estos modelos son una subcategor\u00eda de modelos de aprendizaje profundo basados en redes neuronales y est\u00e1n dise\u00f1ados para tareas relacionadas con el <strong>procesamiento del lenguaje natural (NLP),<\/strong> como la traducci\u00f3n autom\u00e1tica, la generaci\u00f3n de texto y la respuesta a preguntas.<br>La seguridad y las auditor\u00edas son aspectos cr\u00edticos cuando se trata de aplicaciones basadas en grandes modelos de lenguaje, como los modelos <strong>GPT (Generative Pre-trained Transformer) o LLM (Large Language Model).<\/strong> El presente art\u00edculo tiene como objetivo analizar la seguridad de estos modelos del lenguaje desde el punto de vista del desarrollador, analizando las principales vulnerabilidades que se pueden producir en la generaci\u00f3n de estos modelos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-introduccion-al-owasp-llm-top-10\"><strong>Introducci\u00f3n al OWASP LLM Top 10<\/strong><\/h2>\n\n\n\n<p>El <strong>OWASP Top 10 para Large Language Model Applications (LLM)<\/strong> <strong>[1] <\/strong>es una lista de las principales vulnerabilidades y riesgos de seguridad que pueden afectar a las aplicaciones que utilizan modelos de lenguaje a gran escala, como GPT-3 y similares. Estas vulnerabilidades son importantes porque pueden ser explotadas para comprometer la integridad y la privacidad de los datos. A continuaci\u00f3n, se presenta un resumen de las principales categor\u00edas de riesgo que pueden ser identificadas:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Prompt Injection (Inyecci\u00f3n de comandos en el prompt): <\/strong>Esta vulnerabilidad ocurre cuando comandos maliciosos se insertan en las solicitudes a los modelos de lenguaje, lo que puede llevar a respuestas no deseadas o acciones maliciosas.<\/li>\n\n\n\n<li><strong>Insecure Output Handling (Manipulaci\u00f3n insegura de la salida):<\/strong> Esta vulnerabilidad Implica la falta de validaci\u00f3n adecuada de la salida generada por el modelo de lenguaje, lo que podr\u00eda permitir la ejecuci\u00f3n de c\u00f3digo malicioso o la exposici\u00f3n de datos sensibles.<\/li>\n\n\n\n<li><strong>Training Data Poisoning (Envenenamiento de datos de entrenamiento): <\/strong>Esta vulnerabilidad se refiere a la manipulaci\u00f3n de los datos utilizados para entrenar los modelos de lenguaje, lo que puede llevar a respuestas sesgadas o maliciosas por parte del modelo.<\/li>\n\n\n\n<li><strong>Model Denial of Service (Denegaci\u00f3n de servicio al modelo): <\/strong>Se trata de ataques que buscan agotar los recursos del modelo de lenguaje, lo que podr\u00eda hacer que no est\u00e9 disponible para su uso leg\u00edtimo.<\/li>\n\n\n\n<li><strong>Supply Chain Vulnerabilities (Vulnerabilidades en la cadena de suministro): <\/strong>Estas vulnerabilidades pueden comprometer los datos de entrenamiento, los modelos de aprendizaje autom\u00e1tico y las plataformas de implementaci\u00f3n, lo que podr\u00eda resultar en resultados sesgados o problemas de seguridad.<\/li>\n\n\n\n<li><strong>Sensitive Information Disclosure (Fuga de datos sensibles):<\/strong> Implica la exposici\u00f3n no autorizada de informaci\u00f3n confidencial a trav\u00e9s de las respuestas del modelo de lenguaje.<\/li>\n\n\n\n<li><strong>Insecure Plugin Design (Dise\u00f1o inseguro de plugins): <\/strong>Los complementos de LLM pueden tener entradas inseguras y un control de acceso insuficiente. Esta falta de control de las aplicaciones las hace m\u00e1s f\u00e1ciles de explotar y puede tener consecuencias como la ejecuci\u00f3n remota de c\u00f3digo.<\/li>\n\n\n\n<li><strong>Excessive Agency (Autonom\u00eda excesiva): <\/strong>Los sistemas basados en LLM pueden emprender acciones que conduzcan a consecuencias no deseadas. El problema surge de una funcionalidad con excesivos permisos otorgados a las aplicaciones.<\/li>\n\n\n\n<li><strong>Overreliance (Sobreconfianza): <\/strong>Los sistemas o las personas que dependen excesivamente de estos modelos se podr\u00edan enfrentar a informaci\u00f3n err\u00f3nea, problemas legales y vulnerabilidades de seguridad debido al contenido incorrecto o inapropiado generado.<\/li>\n\n\n\n<li><strong>Model Theft (Robo del modelo): <\/strong>El impacto de esta vulnerabilidad incluye p\u00e9rdidas econ\u00f3micas y posible acceso a informaci\u00f3n confidencial por parte de la competencia.<\/li>\n<\/ul>\n\n\n\n<p>La implementaci\u00f3n de modelos de lenguaje a gran escala ha revolucionado la forma en que interactuamos con las aplicaciones y servicios basados en el lenguaje natural. Estos modelos avanzados ofrecen capacidades de procesamiento de lenguaje que permiten a las aplicaciones comprender, generar y manipular texto de manera sofisticada. Sin embargo, esta sofisticaci\u00f3n tambi\u00e9n presenta desaf\u00edos significativos en t\u00e9rminos de seguridad.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-seguridad-en-aplicaciones-que-manejen-modelos-a-gran-escala\"><strong>Seguridad en aplicaciones que manejen modelos a gran escala<\/strong><\/h2>\n\n\n\n<p>La seguridad en aplicaciones que manejan este tipo de modelos se convierte en una prioridad esencial, ya que estas aplicaciones manejan grandes vol\u00famenes de datos y pueden estar expuestas a diversas amenazas. Desde la protecci\u00f3n de datos sensibles hasta la prevenci\u00f3n de ataques adversarios, la seguridad en este contexto abarca una amplia gama de consideraciones. Entre los principales <strong>desaf\u00edos de seguridad<\/strong> para las aplicaciones que hagan uso de los modelos LLM podemos destacar:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Inyecci\u00f3n de texto malicioso: <\/strong>Los modelos de lenguaje pueden ser susceptibles a inyecciones de texto malicioso. En este punto, la seguridad debe abordar la manipulaci\u00f3n de entrada de texto para evitar resultados no deseados o potencialmente peligrosos.<\/li>\n\n\n\n<li><strong>Privacidad de los datos: <\/strong>Dado que estos modelos pueden procesar informaci\u00f3n altamente sensible, la privacidad de los datos se vuelve cr\u00edtica. Las medidas de cifrado y protecci\u00f3n de datos son fundamentales para evitar fugas de informaci\u00f3n.<\/li>\n\n\n\n<li><strong>Prevenci\u00f3n a ataques adversarios<\/strong>: La evaluaci\u00f3n de la resistencia del modelo ante intentos de manipulaci\u00f3n es esencial. Los modelos de lenguaje pueden ser vulnerables a inyecciones de texto malicioso, por lo que es esencial implementar t\u00e9cnicas de defensa, como la tokenizaci\u00f3n segura.<\/li>\n\n\n\n<li><strong>Auditor\u00eda de decisiones del modelo:<\/strong> La transparencia y la capacidad de auditar las decisiones tomadas por el modelo son aspectos clave de la seguridad. Los sistemas deben ser capaces de explicar y justificar sus salidas.<\/li>\n\n\n\n<li><strong>Seguridad en la infraestructura: <\/strong>Es importante asegurar la infraestructura en la que se ejecutan los modelos. Esto incluye pr\u00e1cticas de seguridad en la nube, como la configuraci\u00f3n adecuada de permisos y el monitoreo constante en el acceso a los recursos.<\/li>\n\n\n\n<li><strong>Monitoreo continuo: <\/strong>Es importante establecer sistemas de monitoreo continuo para detectar patrones de uso inusual o comportamiento malicioso. Esto puede ayudar a identificar posibles amenazas de seguridad.<\/li>\n\n\n\n<li><strong>Actualizaciones de seguridad<\/strong>: Es importante mantener los modelos y las dependencias actualizadas para abordar posibles vulnerabilidades de seguridad. Esto incluye tanto el modelo de lenguaje como cualquier software adicional utilizado en la aplicaci\u00f3n.<\/li>\n<\/ul>\n\n\n\n<p>Como vemos, la seguridad en aplicaciones que usan estos modelos implica un enfoque integral que abarca desde la fase de desarrollo hasta la implementaci\u00f3n continua de medidas de seguridad adaptativas. La comprensi\u00f3n y la gesti\u00f3n proactiva de los desaf\u00edos asociados con la implementaci\u00f3n de modelos de lenguaje a gran escala son fundamentales para garantizar la confiabilidad y la integridad de estas aplicaciones en un entorno digital cada vez m\u00e1s complejo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-auditorias-en-aplicaciones-que-manejen-modelos-a-gran-escala\"><strong>Auditor\u00edas en aplicaciones que manejen modelos a gran escala<\/strong><\/h2>\n\n\n\n<p>Las auditor\u00edas en aplicaciones que hacen uso de estos modelos se han vuelto esenciales para garantizar la integridad, privacidad y seguridad de estas plataformas. Entre los <strong>desaf\u00edos<\/strong> en auditor\u00edas de aplicaciones que hagan uso de estos modelo podemos destacar:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Revisi\u00f3n de c\u00f3digo: <\/strong>Es importante realizar revisiones de c\u00f3digo peri\u00f3dicas para identificar posibles problemas de seguridad en la implementaci\u00f3n de la aplicaci\u00f3n y la integraci\u00f3n del modelo de lenguaje.<\/li>\n\n\n\n<li><strong>Evaluaci\u00f3n de riesgos:<\/strong> Realizar evaluaciones de riesgos para identificar posibles amenazas y sus consecuencias.<\/li>\n\n\n\n<li><strong>Auditor\u00eda de acceso y autorizaci\u00f3n:<\/strong> Revisar y auditar los controles de acceso y las pol\u00edticas de autorizaci\u00f3n para garantizar que solo los usuarios autorizados tengan acceso a funciones cr\u00edticas.<\/li>\n\n\n\n<li><strong>Registro y auditor\u00eda de actividades:<\/strong> Implementar registros detallados de actividades para realizar auditor\u00edas de eventos. Esto es esencial para rastrear el uso del sistema y detectar posibles intentos de violaci\u00f3n de seguridad.<\/li>\n\n\n\n<li><strong>Cumplimiento normativo<\/strong>: Asegurarse de que la aplicaci\u00f3n cumple con los requisitos legales y normativos relacionados con la privacidad y la seguridad de los datos.<\/li>\n\n\n\n<li><strong>Interpretabilidad del modelo:<\/strong> Los modelos de lenguaje suelen funcionar como &#8220;cajas negras&#8221;, lo que dificulta la comprensi\u00f3n completa de c\u00f3mo toman decisiones. Las auditor\u00edas deben abordar la interpretabilidad del modelo y la capacidad de explicar sus resultados.<\/li>\n\n\n\n<li><strong>Seguridad en la generaci\u00f3n de texto:<\/strong> Dada la naturaleza generativa de estos modelos, es importante auditar la seguridad en la generaci\u00f3n de texto para evitar resultados no esperados o&nbsp; inapropiados. Esto incluye la prevenci\u00f3n de sesgos y la detecci\u00f3n de posibles contenidos ofensivos.<\/li>\n\n\n\n<li><strong>Privacidad de los datos:<\/strong> Las auditor\u00edas deben asegurar la protecci\u00f3n de datos sensibles y la implementaci\u00f3n de medidas de privacidad adecuadas. Esto incluye la revisi\u00f3n de las pol\u00edticas de manejo de datos y la verificaci\u00f3n de la conformidad con regulaciones de privacidad.<\/li>\n\n\n\n<li><strong>\u00c9tica y sesgo:<\/strong> Las auditor\u00edas deben abordar la \u00e9tica y el sesgo en los resultados del modelo. Esto implica revisar y corregir sesgos existentes para garantizar la equidad y la imparcialidad en la generaci\u00f3n de texto.<\/li>\n<\/ul>\n\n\n\n<p>Dada la naturaleza din\u00e1mica de los entornos a nivel&nbsp; de seguridad, es importante mantenerse actualizado con las mejores pr\u00e1cticas y adaptarse a las nuevas amenazas a medida que surgen. Adem\u00e1s, la colaboraci\u00f3n con expertos en seguridad puede ser beneficiosa para evaluar y mejorar la postura de seguridad de las aplicaciones que trabajan con modelos grandes del lenguaje. Las siguientes son algunas recomendaciones para mejorar la seguridad y las auditor\u00edas en aplicaciones que manejan modelos a gran escala:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Utilizar herramientas de auditor\u00eda automatizadas:<\/strong> Una herramienta de auditor\u00eda automatizada puede ayudar a simplificar el proceso de auditor\u00eda y a reducir el riesgo de errores.<\/li>\n\n\n\n<li><strong>Involucrar a los desarrolladores desde la fase de dise\u00f1o:<\/strong> Los desarrolladores deben estar involucrados en el proceso de seguridad y auditor\u00eda desde la fase de dise\u00f1o para garantizar que los modelos se desarrollen de manera segura.<\/li>\n\n\n\n<li><strong>Establecer una cultura de seguridad:<\/strong> Es importante crear una cultura de seguridad en la empresa para garantizar que todos los empleados est\u00e9n comprometidos con la seguridad.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-conclusiones\"><strong>Conclusiones<\/strong><\/h2>\n\n\n\n<p>Como hemos visto, la seguridad y las auditor\u00edas son esenciales para proteger los datos y los sistemas que utilizan modelos a gran escala. Estos modelos pueden ser vulnerables a una variedad de ataques, como la inyecci\u00f3n de c\u00f3digo, el robo de datos y el acceso no autorizado. Las auditor\u00edas pueden ayudar a identificar y mitigar estas vulnerabilidades. Desde el punto de vista de la seguridad de las aplicaciones que manejan modelos a gran escala debe abordar los siguientes aspectos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Control de acceso:<\/strong> Se debe garantizar que s\u00f3lo los usuarios autorizados tengan acceso a los modelos y a los datos que utilizan.<\/li>\n\n\n\n<li><strong>Encriptaci\u00f3n:<\/strong> Se deben encriptar los datos que se transmiten entre los modelos y otros sistemas.<\/li>\n\n\n\n<li><strong>Cifrado de datos:<\/strong> Se deben cifrar los datos que se almacenan en los modelos.<\/li>\n\n\n\n<li><strong>Detecci\u00f3n y prevenci\u00f3n de intrusiones:<\/strong> Se deben implementar medidas para detectar y prevenir ataques a los modelos y a los sistemas que los utilizan.<\/li>\n<\/ul>\n\n\n\n<p>Por otra parte, las auditor\u00edas de seguridad pueden ayudar a identificar y mitigar las vulnerabilidades en las aplicaciones que manejan modelos a gran escala. Las auditor\u00edas deben cubrir los siguientes aspectos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Arquitectura del sistema:<\/strong> Se debe evaluar la arquitectura del sistema para identificar posibles vulnerabilidades.<\/li>\n\n\n\n<li><strong>Controles de seguridad:<\/strong> Se debe evaluar la implementaci\u00f3n de los controles de seguridad para garantizar que sean efectivos.<\/li>\n\n\n\n<li><strong>Procesos de seguridad:<\/strong> Se debe evaluar los procesos de seguridad para garantizar que sean adecuados.<\/li>\n<\/ul>\n\n\n\n<p>Como conclusi\u00f3n, la seguridad y las auditor\u00edas son esenciales para proteger los datos y los sistemas que utilizan modelos a gran escala. Las empresas que utilizan estos modelos deben implementar medidas de seguridad adecuadas y realizar auditor\u00edas peri\u00f3dicas para identificar y mitigar las vulnerabilidades.<\/p>\n\n\n\n<p>Referencias:<\/p>\n\n\n\n<p>[1] <a href=\"https:\/\/owasp.org\/www-project-top-10-for-large-language-model-applications\/assets\/PDF\/OWASP-Top-10-for-LLMs-2023-v1_0_1.pdf\"><strong>https:\/\/owasp.org\/www-project-top-10-for-large-language-model-applications\/assets\/PDF\/OWASP-Top-10-for-LLMs-2023-v1_0_1.pdf<\/strong><\/a><\/p>\n\n\n\n<pre class=\"wp-block-preformatted\"><strong>\u00danete a nuestra comunidad<\/strong><\/pre>\n\n\n\n<pre class=\"wp-block-preformatted\">\u00bfQuieres orientar tu carrera para convertirte en un gran desarrollador? En nuestra plataforma de Talent puedes encontrar la forma de llevar tu carrera al siguiente nivel. Entra en nuestra web y encuentra tu trabajo ideal. <a href=\"https:\/\/www.codemotion.com\/talent\/jobs\/\" class=\"ek-link\">\u00c9chale un vistazo.<\/a><\/pre>\n\n\n\n<pre class=\"wp-block-preformatted\">Ser parte de la comunidad de Codemotion te permitir\u00e1 potenciar tu experiencia y enfrentar nuevos desaf\u00edos que impulsar\u00e1n tu carrera. Aprender\u00e1s nuevas habilidades t\u00e9cnicas y crecer\u00e1s junto a otros miembros mediante el intercambio de opiniones y la creaci\u00f3n conjunta. Tenemos dos comunidades para ti seg\u00fan tu experiencia:<\/pre>\n\n\n\n<pre class=\"wp-block-preformatted\">Si eres wanna-be-dev, junior-dev o early-mid-dev nuestra comunidad de Discord es para ti. All\u00ed encontrar\u00e1s recursos, eventos, formaci\u00f3n, muchos compa\u00f1eros de viaje y beneficios exclusivos. <a href=\"https:\/\/community-es.codemotion.it\/comunidad\" class=\"ek-link\">S\u00famate aqu\u00ed<\/a>.<\/pre>\n\n\n\n<pre class=\"wp-block-preformatted\">Si eres late-mid-dev, senior-dev, Tech Lead o CTO nuestra comunidad de Telegram es para ti. All\u00ed encontrar\u00e1s el mejor networking, art\u00edculos high-tech, debates de tendencias tech y beneficios exclusivos. <a href=\"https:\/\/t.me\/+blEFka3EDodjMTFk\" class=\"ek-link\">S\u00famate aqu\u00ed.<\/a><\/pre>\n\n\n\n<pre class=\"wp-block-preformatted\">\u00a1Nos vemos en Codemotion!<\/pre>\n\n\n\n<script src=\"https:\/\/codemotion.activehosted.com\/f\/embed.php?id=44\" type=\"text\/javascript\" charset=\"utf-8\"><\/script>\n","protected":false},"excerpt":{"rendered":"<p>Los LLM (Large Language Model) son una clase de modelos de inteligencia artificial (IA) que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano. Estos modelos son una subcategor\u00eda de modelos de aprendizaje profundo basados en redes neuronales y est\u00e1n dise\u00f1ados para tareas relacionadas con el procesamiento del lenguaje natural&#8230; <a class=\"more-link\" href=\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\">Read more<\/a><\/p>\n","protected":false},"author":199,"featured_media":25296,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","_uag_custom_page_level_css":"","_genesis_hide_title":false,"_genesis_hide_breadcrumbs":false,"_genesis_hide_singular_image":false,"_genesis_hide_footer_widgets":false,"_genesis_custom_body_class":"","_genesis_custom_post_class":"","_genesis_layout":"","footnotes":""},"categories":[10614],"tags":[10711],"collections":[],"class_list":{"0":"post-25251","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciberseguridad","8":"tag-ciberseguridad","9":"entry"},"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v26.9 (Yoast SEO v26.9) - https:\/\/yoast.com\/product\/yoast-seo-premium-wordpress\/ -->\n<title>Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)<\/title>\n<meta name=\"description\" content=\"Los LLM son una clase de modelos de IA que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)\" \/>\n<meta property=\"og:description\" content=\"Los LLM son una clase de modelos de IA que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\" \/>\n<meta property=\"og:site_name\" content=\"Codemotion Magazine\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/Codemotion.Italy\/\" \/>\n<meta property=\"article:published_time\" content=\"2024-01-10T13:25:55+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-01-10T13:56:14+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1707\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Jose Manuel Ortega\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@jmortegac\" \/>\n<meta name=\"twitter:site\" content=\"@CodemotionIT\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Jose Manuel Ortega\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\"},\"author\":{\"name\":\"Jose Manuel Ortega\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/6b4195d4196bc3d3e8a56c1215470b6d\"},\"headline\":\"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)\",\"datePublished\":\"2024-01-10T13:25:55+00:00\",\"dateModified\":\"2024-01-10T13:56:14+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\"},\"wordCount\":1949,\"publisher\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#organization\"},\"image\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg\",\"keywords\":[\"Ciberseguridad\"],\"articleSection\":[\"Ciberseguridad\"],\"inLanguage\":\"en-US\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\",\"name\":\"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)\",\"isPartOf\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg\",\"datePublished\":\"2024-01-10T13:25:55+00:00\",\"dateModified\":\"2024-01-10T13:56:14+00:00\",\"description\":\"Los LLM son una clase de modelos de IA que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano.\",\"breadcrumb\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg\",\"contentUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg\",\"width\":2560,\"height\":1707,\"caption\":\"Programmers and chatbot processing natural language. Natural language processing, chatbot natural language, natural language scince concept. Pinkish coral bluevector isolated illustration\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.codemotion.com\/magazine\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Ciberseguridad\",\"item\":\"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#website\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/\",\"name\":\"Codemotion Magazine\",\"description\":\"We code the future. Together\",\"publisher\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.codemotion.com\/magazine\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#organization\",\"name\":\"Codemotion\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png\",\"contentUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png\",\"width\":225,\"height\":225,\"caption\":\"Codemotion\"},\"image\":{\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/Codemotion.Italy\/\",\"https:\/\/x.com\/CodemotionIT\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/6b4195d4196bc3d3e8a56c1215470b6d\",\"name\":\"Jose Manuel Ortega\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2023\/10\/python_jose_manuel_ortega-150x150.png\",\"contentUrl\":\"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2023\/10\/python_jose_manuel_ortega-150x150.png\",\"caption\":\"Jose Manuel Ortega\"},\"description\":\"Jos\u00e9 Manuel Ortega is a software engineer and cybersecurity researcher with interest in new technologies, open source, security and testing. In recent years he has shown interest in innovation projects using Big Data technologies using programming languages such as Python. He is currently working as a software engineer in research projects related to Big Data, Cybersecurity and Blockchain. He has taught at university level and collaborated with the official college of computer engineers. He has also been a speaker at several conferences oriented to developers at national and international level. More information about his lectures and other published works can be found on his personal website https:\/\/josemanuelortegablog.com.\",\"sameAs\":[\"http:\/\/josemanuelortegablog.com\",\"https:\/\/www.linkedin.com\/in\/jmortega1\/\",\"https:\/\/x.com\/jmortegac\",\"https:\/\/www.youtube.com\/@JoseManuelOrtegadev\"],\"url\":\"https:\/\/www.codemotion.com\/magazine\/author\/josemanuel\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)","description":"Los LLM son una clase de modelos de IA que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/","og_locale":"en_US","og_type":"article","og_title":"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)","og_description":"Los LLM son una clase de modelos de IA que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano.","og_url":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/","og_site_name":"Codemotion Magazine","article_publisher":"https:\/\/www.facebook.com\/Codemotion.Italy\/","article_published_time":"2024-01-10T13:25:55+00:00","article_modified_time":"2024-01-10T13:56:14+00:00","og_image":[{"width":2560,"height":1707,"url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg","type":"image\/jpeg"}],"author":"Jose Manuel Ortega","twitter_card":"summary_large_image","twitter_creator":"@jmortegac","twitter_site":"@CodemotionIT","twitter_misc":{"Written by":"Jose Manuel Ortega","Est. reading time":"8 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#article","isPartOf":{"@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/"},"author":{"name":"Jose Manuel Ortega","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/6b4195d4196bc3d3e8a56c1215470b6d"},"headline":"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)","datePublished":"2024-01-10T13:25:55+00:00","dateModified":"2024-01-10T13:56:14+00:00","mainEntityOfPage":{"@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/"},"wordCount":1949,"publisher":{"@id":"https:\/\/www.codemotion.com\/magazine\/#organization"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage"},"thumbnailUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg","keywords":["Ciberseguridad"],"articleSection":["Ciberseguridad"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/","url":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/","name":"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)","isPartOf":{"@id":"https:\/\/www.codemotion.com\/magazine\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage"},"thumbnailUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg","datePublished":"2024-01-10T13:25:55+00:00","dateModified":"2024-01-10T13:56:14+00:00","description":"Los LLM son una clase de modelos de IA que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano.","breadcrumb":{"@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#primaryimage","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg","width":2560,"height":1707,"caption":"Programmers and chatbot processing natural language. Natural language processing, chatbot natural language, natural language scince concept. Pinkish coral bluevector isolated illustration"},{"@type":"BreadcrumbList","@id":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/seguridad-y-auditorias-en-modelos-grandes-del-lenguaje\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.codemotion.com\/magazine\/"},{"@type":"ListItem","position":2,"name":"Ciberseguridad","item":"https:\/\/www.codemotion.com\/magazine\/es\/ciberseguridad\/"},{"@type":"ListItem","position":3,"name":"Seguridad y auditor\u00edas en Modelos grandes del lenguaje (LLM)"}]},{"@type":"WebSite","@id":"https:\/\/www.codemotion.com\/magazine\/#website","url":"https:\/\/www.codemotion.com\/magazine\/","name":"Codemotion Magazine","description":"We code the future. Together","publisher":{"@id":"https:\/\/www.codemotion.com\/magazine\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.codemotion.com\/magazine\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/www.codemotion.com\/magazine\/#organization","name":"Codemotion","url":"https:\/\/www.codemotion.com\/magazine\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2019\/11\/codemotionlogo.png","width":225,"height":225,"caption":"Codemotion"},"image":{"@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/Codemotion.Italy\/","https:\/\/x.com\/CodemotionIT"]},{"@type":"Person","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/6b4195d4196bc3d3e8a56c1215470b6d","name":"Jose Manuel Ortega","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/www.codemotion.com\/magazine\/#\/schema\/person\/image\/","url":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2023\/10\/python_jose_manuel_ortega-150x150.png","contentUrl":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2023\/10\/python_jose_manuel_ortega-150x150.png","caption":"Jose Manuel Ortega"},"description":"Jos\u00e9 Manuel Ortega is a software engineer and cybersecurity researcher with interest in new technologies, open source, security and testing. In recent years he has shown interest in innovation projects using Big Data technologies using programming languages such as Python. He is currently working as a software engineer in research projects related to Big Data, Cybersecurity and Blockchain. He has taught at university level and collaborated with the official college of computer engineers. He has also been a speaker at several conferences oriented to developers at national and international level. More information about his lectures and other published works can be found on his personal website https:\/\/josemanuelortegablog.com.","sameAs":["http:\/\/josemanuelortegablog.com","https:\/\/www.linkedin.com\/in\/jmortega1\/","https:\/\/x.com\/jmortegac","https:\/\/www.youtube.com\/@JoseManuelOrtegadev"],"url":"https:\/\/www.codemotion.com\/magazine\/author\/josemanuel\/"}]}},"featured_image_src":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-600x400.jpg","featured_image_src_square":"https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-600x600.jpg","author_info":{"display_name":"Jose Manuel Ortega","author_link":"https:\/\/www.codemotion.com\/magazine\/author\/josemanuel\/"},"uagb_featured_image_src":{"full":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-scaled.jpg",2560,1707,false],"thumbnail":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-150x150.jpg",150,150,true],"medium":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-300x200.jpg",300,200,true],"medium_large":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-768x512.jpg",768,512,true],"large":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-1024x683.jpg",1024,683,true],"1536x1536":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-1536x1024.jpg",1536,1024,true],"2048x2048":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-2048x1365.jpg",2048,1365,true],"small-home-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-100x100.jpg",100,100,true],"sidebar-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-180x128.jpg",180,128,true],"genesis-singular-images":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-896x504.jpg",896,504,true],"archive-featured":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-400x225.jpg",400,225,true],"gb-block-post-grid-landscape":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-600x400.jpg",600,400,true],"gb-block-post-grid-square":["https:\/\/www.codemotion.com\/magazine\/wp-content\/uploads\/2024\/01\/20945532-600x600.jpg",600,600,true]},"uagb_author_info":{"display_name":"Jose Manuel Ortega","author_link":"https:\/\/www.codemotion.com\/magazine\/author\/josemanuel\/"},"uagb_comment_info":0,"uagb_excerpt":"Los LLM (Large Language Model) son una clase de modelos de inteligencia artificial (IA) que han revolucionado la forma en que las m\u00e1quinas interpretan y generan el lenguaje humano. Estos modelos son una subcategor\u00eda de modelos de aprendizaje profundo basados en redes neuronales y est\u00e1n dise\u00f1ados para tareas relacionadas con el procesamiento del lenguaje natural&#8230;&hellip;","lang":"es","_links":{"self":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/25251","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/users\/199"}],"replies":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/comments?post=25251"}],"version-history":[{"count":2,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/25251\/revisions"}],"predecessor-version":[{"id":25292,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/posts\/25251\/revisions\/25292"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/media\/25296"}],"wp:attachment":[{"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/media?parent=25251"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/categories?post=25251"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/tags?post=25251"},{"taxonomy":"collections","embeddable":true,"href":"https:\/\/www.codemotion.com\/magazine\/wp-json\/wp\/v2\/collections?post=25251"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}