Home Economía El “sobreentrenamiento catastrófico” podría dañar los modelos de IA de lenguaje grande...

El “sobreentrenamiento catastrófico” podría dañar los modelos de IA de lenguaje grande que están capacitados en más datos en aras de la capacitación

13
0


  • Investigadores de las mejores universidades estadounidenses advierten que extender el pre-entrenamiento puede ser perjudicial para el rendimiento
  • Demasiado pre-entrenamiento puede ofrecer un peor rendimiento debido a algo parecido al efecto de la mariposa
  • Cuanto más se entrenen, más se vuelven sensibles a pequeños cambios que podrían interrumpir el resultado final

Los investigadores de Carnegie Mellon, Stanford, Harvard y Princeton están desafiando una de las creencias centrales aceptadas de AI Development, que cuanto más datos de entrenamiento, mejor será el rendimiento.

Según lo informado por Hpcwireun nuevo documento describe el concepto de “sobreentrenamiento catastrófico”, por el cual el pretraben extendido puede dañar el rendimiento de un modelo después del ajuste.

LEAVE A REPLY

Please enter your comment!
Please enter your name here