HirundoLa primera startup dedicada al desaprendizaje de máquinas ha recaudado $ 8 millones en fondos iniciales para abordar algunos de los desafíos más apremiantes en la inteligencia synthetic: alucinaciones, sesgos y vulnerabilidades de datos integrados. La ronda fue dirigida por Maverick Ventures Israel con participación de Rezagado, Capital de inteligencia alfa, Tachles VC, Ai.fundy Centro de tecnología de enchufe y juego.
Hacer que AI olvide: la promesa de desaprender a la máquina
A diferencia de las herramientas de IA tradicionales que se centran en refinar o filtrar las salidas de IA, la innovación central de Hirundo es desaprendizaje de la máquina—Un técnica que permite que los modelos de IA “olviden” el conocimiento o los comportamientos específicos después de haber sido entrenados. Este enfoque permite a las empresas eliminar quirúrgicamente alucinaciones, sesgos, datos personales o patentados y vulnerabilidades adversas a los modelos de IA implementados sin volver a capacitarlos desde cero. El reentrenamiento de modelos a gran escala puede llevar semanas y millones de dólares; Hirundo ofrece una alternativa mucho más eficiente.
Hirundo compara este proceso para AI Neurocirugía: La compañía identifica exactamente dónde, en los parámetros de un modelo, las salidas no deseadas se originan y los elimina con precisión, todo mientras preserva el rendimiento. Esta técnica innovadora faculta a las organizaciones remediar modelos en entornos de producción y implementar IA con mucha mayor confianza.
Por qué las alucinaciones de IA son tan peligrosas
Alucinaciones de IA Consulte la tendencia de un modelo a generar información falsa o engañosa que suena believable o incluso objetiva. Estas alucinaciones son especialmente problemáticas en entornos empresariales, donde las decisiones basadas en información incorrecta pueden conducir a exposición authorizederrores operativos y daños de reputación. Los estudios han demostrado que 58 a 82 % de “hechos” generados por IA para consultas legales contenía algún tipo de alucinación.
A pesar de los esfuerzos para minimizar las alucinaciones utilizando barandillas o ajuste, estos métodos a menudo enmascaran los problemas en lugar de eliminarlos. Las barandillas actúan como filtros, y el ajuste fino generalmente no puede eliminar la causa raíz, especialmente cuando la alucinación se hornea profundamente en los pesos aprendidos del modelo. Hirundo va más allá de esto al eliminar el comportamiento o el conocimiento del modelo mismo.
Una plataforma escalable para cualquier pila de IA
La plataforma de Hirundo está construida para flexibilidad e implementación de grado empresarial. Se integra con sistemas generativos y no generativos en una amplia gama de tipos de datos: lenguaje pure, visión, radar, LiDAR, tabular, habla y Timeseries. La plataforma detecta automáticamente elementos mal etiquetados, valores atípicos y ambigüedades en los datos de capacitación. Luego permite a los usuarios depurar salidas defectuosas específicas y rastrearlas de nuevo a datos de entrenamiento problemático o comportamientos aprendidos, que se pueden desaprender al instante.
Todo esto se logra sin cambiar los flujos de trabajo. El sistema certificado SOC-2 de Hirundo se puede ejecutar a través de SaaS, privado Cloud (VPC) o incluso en las instalaciones de aire, lo que lo hace adecuado para entornos sensibles como finanzas, atención médica y defensa.
Impacto demostrado en todos los modelos
La compañía ya ha demostrado fuertes mejoras de rendimiento en modelos populares de idiomas grandes (LLM). En las pruebas utilizando LLAMA y Deepseek, Hirundo logró una reducción del 55% en las alucinaciones, una disminución del 70% en el sesgo y una reducción del 85% en ataques de inyección inmediata. Estos resultados se han verificado utilizando puntos de referencia independientes como Halueval, Purplellama y preguntas y respuestas de referencia de sesgo.
Si bien las soluciones actuales funcionan bien con modelos de código abierto como Llama, Mistral y Gemma, Hirundo está expandiendo activamente el apoyo a modelos cerrados como ChatGPT y Claude. Esto hace que su tecnología sea aplicable en todo el espectro de Enterprise LLMS.
Fundadores con profundidad académica e industrial
Hirundo fue fundado en 2023 por un trío de expertos en la intersección de la academia y la IA Enterprise. CEO Ben Luria Es un erudito de Rhodes y ex becario visitante en Oxford, quien anteriormente fundó Fintech Startup Worqly y cofundó Scholarsil, una organización sin fines de lucro que apoya la educación superior. Michael LeybovichCTO de Hirundo, es un ex investigador graduado en el oficial de I + D de Technion y galardonado en OFEK324. Prof. Oded Shmueliel científico jefe de la compañía, es el ex decano de informática en The Technion y ha ocupado puestos de investigación en IBM, HP, AT&T y más.
Su experiencia colectiva abarca la investigación elementary de la IA, la implementación del mundo actual y la gestión de datos segura, lo que los hace calificados únicos para abordar la disaster de confiabilidad precise de la industria de la IA.
Respaldo de los inversores para un futuro de IA confiable
Los inversores en esta ronda están alineados con la visión de Hirundo de construir una IA confiable y lista para la empresa. Yaron CarniFundador de Maverick Ventures Israel, señaló la necesidad urgente de una plataforma que pueda eliminar la inteligencia alucinada o sesgada antes de causar daños en el mundo actual. “Sin eliminar alucinaciones o inteligencia sesgada de la IA, terminamos distorsionando los resultados y alentando la desconfianza”, dijo. “Hirundo ofrece un tipo de triaje de IA: retirar falsedades o datos basados en fuentes discriminatorias y transformar por completo las posibilidades de IA”.
Socio gerente de SuperSeed, Mads Jensense hizo eco de este sentimiento: “Invertimos en compañías de IA excepcionales que transforman las verticales de la industria, pero esta transformación es tan poderosa como los modelos en sí son confiables.
Abordar un desafío creciente en el despliegue de IA
A medida que los sistemas de IA se integran cada vez más en la infraestructura crítica, las preocupaciones sobre alucinaciones, inclinacióny los datos confidenciales integrados se están volviendo más difíciles de ignorar. Estos problemas plantean riesgos significativos en entornos de alto riesgo, desde las finanzas hasta la atención médica y la defensa.
El desaprendizaje de la máquina está surgiendo como una herramienta crítica en la respuesta de la industria de la IA a las crecientes preocupaciones sobre la confiabilidad y seguridad del modelo. A medida que las alucinaciones, el sesgo integrado y la exposición de datos confidenciales socavan cada vez más la confianza en los sistemas de IA implementados, el desaprendizaje ofrece una forma directa de mitigar estos riesgos (después Un modelo está entrenado y en uso.
En lugar de confiar en el reentrenamiento o las correcciones a nivel de superficie como el filtrado, el desaprendizaje de la máquina permite la eliminación dirigida de comportamientos problemáticos y datos de modelos que ya están en producción. Este enfoque está ganando tracción entre las empresas y las agencias gubernamentales que buscan soluciones escalables y compatibles para aplicaciones de alto riesgo.