Oui, c’est un point rhétorique très large et je pense que vous avez manqué l’implication.
Je vais me lancer et dire que votre processus logique a été mené à une époque antérieure à l’itération actuelle de l’IA/ChatGPT, et c’était l’ancienne norme qui dictait l’espace.
Les gens dans le même espace aujourd’hui ont ce nouveau paradigme accrocheur qui change la donne (l’IA) qui semble promettre un facteur X apparemment infini en termes de potentiel et de conséquences, dans une mesure égale.
Toute activité et toutes les hypothèses antérieures qui ont informé les décisions passées deviennent nulles et non avenues si l’IA y a eu accès, et il y a suffisamment d’éléments trouvés anecdotiquement en ligne pour suggérer que le grattage de données pour alimenter l’IA se déroule depuis 3, peut-être 5 ans ou plus, dans le cas de DeepMind, peut-être dès 2014 lorsque Google l’a acheté (peut-être qu’un examen médico-légal d’échantillons de journaux pourrait le prouver, ou peut-être a-t-il été occulté pour l’empêcher). Si vous considérez cela comme relativement vrai, vous pouvez voir que le problème est frappant en termes de délais techniques.
Tout le contenu peut avoir été gratté et il est trop tard, mais j’ai pris cela en compte dans mes préoccupations et mes représentations, et je ne le note ici que parce que, comme je l’ai dit, il n’y a pas de solution de machine à remonter le temps ici, seulement le pouvoir de la circonspection pour informer les solutions présentes et futures.
