La startup estadounidense Protecto logra un uso seguro de la IA generativa con RAG Prevención de fugas de información |

by tiempoantenacom

En el mundo actual donde la IA generativa está transformando el mundo, para maximizar su efectividad, es necesario resolver los problemas de protección de seguridad y privacidad de los datos cuando se utiliza la IA generativa.

Una startup estadounidense cuya misión es solucionar este problemaprotectorha desarrollado una solución que permite el uso seguro de la IA generativa. Es una plataforma que protege los datos durante todo el ciclo de vida de la IA generativa, desde el entrenamiento y el ajuste hasta el uso.

Créditos de imagen:protector

Además de asociarse con plataformas como Microsoft Azure, Salesforce y Snowflake, los clientes existentes incluyen NOKIA y otras empresas en una variedad de industrias, incluidos servicios financieros, atención médica y tecnología.

La empresa, con sede en San José, California, comúnmente conocida como Silicon Valley, recaudó 4 millones de dólares en una ronda inicial en noviembre de 2023. Combinado con inversiones ángeles de ejecutivos de Google y Microsoft en 2021, la financiación total hasta la fecha es de 5 millones de dólares. La empresa planea utilizar los fondos recién recaudados para contratar talentos de ingeniería de primer nivel y centrarse en ampliar su estrategia de mercado.

Las empresas están preocupadas por el uso de IA generativa y también se producen incidentes de fugas

La IA generativa permite el análisis de datos incluso para personas sin habilidades especializadas. El alcance y la complejidad del análisis y la cantidad de datos manejados continúan ampliándose día a día. El objetivo de búsqueda no se limita a datos estructurados, como datos de clientes y datos de rendimiento. Se está ampliando para incluir datos no estructurados, como historial de chat, registros transcritos de llamadas de ventas y debates en las redes sociales y comunidades de la empresa.

Esta amplia gama de datos no estructurados es muy compleja y, por lo tanto, plantea inherentemente altos riesgos de seguridad. Además, dado que contiene información personal y confidencial, existe el riesgo de acceso no autorizado, filtración de datos y violaciones de la privacidad.

Si bien las empresas están cosechando los beneficios del uso de IA generativa como ChatGPT, también les preocupan los riesgos de seguridad y privacidad de los datos. De hecho, la violación de datos de Samsung que ocurrió en abril de 2023 se produjo cuando un empleado ingresó información confidencial en ChatGPT sin intenciones maliciosas.

Las preocupaciones y regulaciones de seguridad también pueden afectar la adopción de la IA generativa

A raíz del incidente de filtración se tomaron medidas como prohibir el uso de ChatGPT y establecer pautas. Sin embargo, es difícil gestionar los enormes riesgos potenciales sólo con directrices y formación de los empleados.

La Ley de Inteligencia Artificial (Ley AI), adoptada por la UE el 13 de marzo de 2024, acaba de recibir la aprobación final el 21 de mayo. Se dice que es el primer marco legal integral del mundo para la IA.

La Ley de IA regula la calidad de los datos, la transparencia, la supervisión humana y la rendición de cuentas en toda la UE. Además de los estrictos requisitos y los importantes efectos extraterritoriales, las multas de hasta 35 millones de euros o el 7% de los ingresos globales anuales (lo que sea mayor) tendrán un impacto significativo en muchas empresas que operan en la UE.

Las preocupaciones sobre la seguridad y las filtraciones pueden retrasar la adopción de la IA generativa. La misión de Proteco es brindar soluciones que aborden estos problemas.

Proteger todo el ciclo de vida de la utilización de la IA generativa

Protecto proporciona una solución de capa intermedia que protege los datos durante todo el ciclo de vida de la IA generativa, incluido el entrenamiento, los RAG y las indicaciones de la IA generativa.

Créditos de imagen:protector

RAG (Generación de recuperación aumentada), que se puede traducir como “generación de recuperación aumentada” o “generación de recuperación aumentada”, es una tecnología que aumenta la precisión de las respuestas combinando la generación de texto mediante LLM con la recuperación de información externa. Esto resuelve el problema de las alucinaciones, donde la IA generativa miente inteligentemente o genera información inexacta.

Uno de los servicios de Protecto, Secure RAG (SecRAG), incorpora mecanismos de control de acceso basado en roles (RBAC) directamente en el proceso de recuperación, lo que garantiza que toda la información utilizada para generar respuestas se verifique rigurosamente.

Créditos de imagen:protector

El diagrama anterior muestra un caso de uso en el que la solución de Protecto se aplica a un chatbot que aprovecha los datos internos de una empresa. Enmascare datos personales confidenciales conservando el formato y significado de los datos originales. Esto permite que la generación de IA comprenda el contexto y genere resultados precisos.

Dos cofundadores son expertos en privacidad de datos

Protecto es una startup fundada en 2021 por el director ejecutivo Amar Kanagarj y el director tecnológico Baskaran Alagarsamy. La empresa con sede en Silicon Valley tiene un centro de desarrollo avanzado en Bangalore, India.

Créditos de imagen:protector

El director ejecutivo Kanagarj comenzó su carrera como desarrollador en Sun Microsystems y luego dirigió la gestión de productos en la división Microsoft Search & AI.Esta es la segunda vez que inicio un negocio y la primeranube de archivosComo cofundador, obtuvo información valiosa sobre la privacidad, la gobernanza y el cumplimiento de los datos. Como CMO, aumentó los ingresos recurrentes anuales de Filecloud a 7 millones de dólares.

El CTO Alagarsamy ha trabajado en Apple como experto en ingeniería de datos durante 18 años. Trabajó en ingeniería de privacidad y problemas de datos a escala de petabytes. Invertido en ProtectoArtículo especial de InvestSegún , en 2018, desarrolló una solución de privacidad para Apple para cumplir con los requisitos del GPDR (Reglamento general de protección de datos de la UE).

Los dos participan activamente en actividades como aprovechar sus conocimientos y realizar seminarios web sobre cuestiones de seguridad y privacidad en el uso de la IA generativa. Organización sin fines de lucro AI también a finales de mayoIA de DallasEstamos realizando un taller sobre implementación de RAG para este propósito.

Dado que Dhanush Ram de Speciale Invest, que participó en la inversión, tiene grandes expectativas, seguirá maximizando el potencial de la IA generativa y contribuirá a construir un ecosistema digital seguro.

Fuente de la cita:protector

Escrito por Mui Gojo
X(Twitter):@fuerzacatalítica

You may also like

Leave a Comment