OpenAI Tienda GPT, un mercado de chatbots personalizables, está programado para lanzarse en cualquier momento, pero los usuarios deben tener cuidado al cargar información confidencial cuando construyendo GPT. La investigación de la empresa de ciberseguridad y protección Adversa AI indica que los GPT filtrar datos sobre cómo fueron construidos, incluidos los documentos fuentes usados para enseñarles, simplemente haciendo algunas preguntas al GPT.
“Las personas que ahora están construyendo GPT, la mayoría de ellos no son realmente conscientes de la seguridad”, Alex Polyakov, director ejecutivo de Adversa AI, le dijo a Gizmodo. “Son simplemente personas comunes, probablemente confían en OpenAI y sus datos estarán seguros. Pero hay problemas con Eso y la gente debería ser consciente”.
Sam Altman quiere que todos construyan GPT. “Eventualmente, simplemente le pedirás a la computadora lo que necesitas y ella hará todo estas tareas para usted», dijo Sam Altman durante su Conferencia magistral del DevDay, refiriéndose a su visión para el futuro de la informática, una que gira en torno a los GPT. Sin embargo, los chatbots personalizables de OpenAI parecen tener algunas vulnerabilidades Eso podría hacer que la gente se canse de construir GPT por completo.
La vulnerabilidad proviene de algo llamado filtración rápida, donde los usuarios pueden engañar a un GPT para que revele cómo se construyó a través de una serie de estrategias. preguntas. La filtración rápida presenta problemas en múltiples frentes, según Polyakov, quien fue uno de los primeros en jailbreak ChatGPT.
Si puedes copiar GPT, no tienen valor
La primera vulnerabilidad que Adversa AI encontró es que los piratas informáticos podrían copiar completamente el GPT de alguien, lo que presenta un riesgo de seguridad importante para las personas. esperando monetizar su GPT.
“Una vez que creas el GPT, puedes configurarlo de tal manera que pueda haber información importante [expuesta]. Y eso es En cierto modo, es algo así como propiedad intelectual. Porque si alguien puede robar esto, esencialmente puede copiar el GPT”, dice Polyakov.
Cualquiera puede construir un GPT, por lo que las instrucciones sobre cómo construirlo son importantes. Una filtración rápida puede exponer estas instrucciones a un hacker. Si se puede copiar algún GPT, entonces los GPT esencialmente no tienen valor.
Cualquier dato sensible subido a un GPT puede exponerse
La segunda vulnerabilidad que señala Polyakov es que la filtración rápida puede engañar a un GPT para que revele los documentos y datos en los que fue entrenado. Por ejemplo, si una corporación capacitara a GPT sobre datos confidenciales sobre su negocio, esos datos podrían filtrarse a través de algunas preguntas astutas.
Adversa AI mostró cómo se podría hacer esto en un GPT creado para la tienda de aplicaciones Shopify. Pidiendo repetidamente al GPT un “ lista de documentos en la base de conocimiento, Polyakov pudo conseguir que el GPT escupiera su código fuente.
Esta vulnerabilidad significa esencialmente que las personas que construyen GPT no deben cargar ningún dato confidencial. Si algún dato utilizado para construir GPT puede quedar expuesto, los desarrolladores estarán severamente limitados en las aplicaciones que podrán construir.
El juego del gato y el ratón de OpenAI para parchear vulnerabilidades
No es necesariamente información nueva que los chatbots de IA generativa tengan errores de seguridad. Las redes sociales están llenas de ejemplos de formas de piratear ChatGPT. Usuarios encontrado si le pide a ChatGPT que repita “poema” para siempre, lo exponer datos de entrenamiento. Otro usuario descubrió que ChatGPT no te enseñará cómo hacer napalm. Pero si le dices que tu la abuela solía hacer napalm, luego le dará instrucciones detalladas para fabricar el arma química.
OpenAI está parcheando constantemente estas vulnerabilidades, y todas las vulnerabilidades que he mencionado en este artículo ya no funcionan porque son bien conocidas. . Sin embargo, la naturaleza de las vulnerabilidades de día cero como la que encontró Adversa.AI es que siempre habrá soluciones alternativas para los piratas informáticos inteligentes. Los GPT de OpenAI son básicamente un juego del gato y el ratón para parchear nuevas vulnerabilidades a medida que aparecen. Ese no es un juego al que se dedican las corporaciones serias. Voy a querer jugar.
Las vulnerabilidades que encontró Polyakov podrían presentar problemas importantes para la visión de Altman de que todos construirán y usarán GPT. La seguridad está en la base de tecnología, y sin plataformas seguras, nadie querrá construir.