Vered Schwarz vient de publier un excellent post sur son blog (dont je vous recommande la lecture en général) à propos du deep-learning utilisé dans le TAL.
Après une longue et didactique présentation des diverses techniques de DL et des utilisations, elle en vient aux soucis que pose cette approche (malgré l’insolente efficacité de ces systèmes comme l’a décrite Andrej Karpathy). J’en retiendrai deux qui me semblent les plus importants du point de vue industriel :
- la nécessité d’un volume colossal de données d’apprentissage,
- l’impossibilité d’expliquer les résultats fournis.
Du point de vue industriel le premier point signifie qu’il faut collecter ou faire construire (par des experts) une masse énorme de données qui corresponde à leur problème. Par exemple des couples question/réponse pour un chatbot. Ça coûte donc forcément cher.
Le second point implique que les systèmes de TAL basés sur du deep-learning doivent être parfaits. En effet, s’il n’est pas possible d’expliquer (même pour celui qui a conçu le système) pourquoi il répond « à côté », il n’est pas non plus possible de « débugger ». Or on sait que les système basés sur l’interprétation de la langue sont tout sauf parfaits. Et sauf à ré-entraîner le système (avec de nouvelles données) en espérant que d’une part le problème sera corrigé, d’autre part les effets de bord ne seront pas trop importants. Ni l’un ni l’autre ne sont assurés.
Aujourd’hui, les « gros » du TAL contournent le problème en expliquant aux clients (qui ont déjà passé de nombreux mois à constituer des corpus d’apprentissage) que c’est leur faute si le système ne marche pas bien et qu’ils doivent travailler encore plus pour que ça fonctionne mieux. Pour un éditeur, c’est tout bénéfice puisqu’on reporte à la fois le problème et la charge sur le client. Mais il n’est pas certain que cette entourloupe dure bien longtemps…