Le véritable plan de Sam Altman

Bunker, déficit, dépendance : derrière le discours d'OpenAI se cache un plan pour remplacer les travailleurs. Décryptage des risques pour ton activité.
Dans la tech, en général, les CEO ne disent pas 100% de leur véritable intention.
Il n'y a qu'à voir Tim Cook qui dit qu'il ne veut pas quitter son poste et qui pourtant fini par être remplacé.
Ce n'est pas un cas isolé, on a tellement de scénarios similaires chez Xbox, chez Microsoft... Toute la tech en général.
Ils arrivent souvent avec un discours comme: "On veut changer le monde, améliorer le quotidien etc".
Mais dans les faits, une société reste une société. Donc une société fera ce qu'il faut pour survivre avant tout, et devenir indispensable afin de survivre.
Initialement OpenAI n'est pas sensé être un projet commercial, d'où le "Open" dans le nom. En revanche, on voit bien que l'ambition a changé et que désormais OpenAI veut devenir leader de son marché.
De quel marché on parle ?
Il est très important de rappeler avant toute chose ce que vend OpenAI: "Des outils IA pour différent type de besoins professionnels".
Comment OpenAI peut-il s'assurer de sa survie ?
Etant donné qu'on parle de besoins professionnels, on parle tout simplement du travail des gens. Et ce qui était sensé "améliorer le quotidien" va rapidement se transformer en remplacement pur et dur car OpenAI veut être dans une situation où ils sont irremplaçables.
Ce n'est que comme ça qu'ils vont se garantir une survie.
Pourquoi on peut être sûr de cette affirmation ?
Chez OpenAI, parler de Bunker n'est pas un sujet tabou. Ils l'ont déjà évoqué par le passé et sont prêt à se réfugier en cas de révolte vis à vis de leur plan initial. Car je le dis, c'est bien là leur plan, du moins ce qu'ils souhaitent faire pour se garantir une domination du marché.
OpenAI veut être "l'employé de demain".
C'est d'ailleurs pourquoi, ils sont prêt à ce que les gens s'insurgent, d'où le bunker. Et je ne suis même pas en train de spéculer, c'est un vrai sujet au sein de cette société.
OpenAI veut devenir la société par laquelle on passe quand on a besoin de force de travail.
Quels sont les problèmes de la stratégie d'OpenAI ?
Il y a plusieurs problèmes autour de ça:
- OpenAI vend un "employé IA" (sous couvert d'un outil parfait) mais qui est très imparfait et en qui on ne peut pas avoir 100% confiance, d'où le besoin d'expertise.
- Ils ont toujours un coût d'infrastructure supérieur aux chiffre d'affaires, donc on n'est pas à l'abris que le prix du service explose et que le "vrai" prix des outils IA soit finalement supérieur aux coûts humains.
- son déficit commercial met OpenAI dans une course continue au financement qui risque de s'essoufler à tout moment et malgré les milliards de dollars levés, OpenAI pourrait mettre fin à ses services du jour au lendemain.
- s'ils arrivent à leur fin, bien que je sois sceptique car il y a trop de problèmes sous-jacents: notamment la délégation de prise de décision qui peut s'avérer grave dans des domaines de responsabilité comme le légal ou la comptabilité
Donc les questions légitimes sont:
- Que se passe t-il pour une société qui a adopté massivement les outils IA si ces services sont interrompus faute d'énergie ou de puissance de calcul ?
- Combien doit-on payer si le vrai prix de l'IA est appliqué (par rapport à la puissance de calcul et à la consommation d'énergie) ?
- Si une société adopte massivement l'IA et que ses data entrainent le model, ses concurrents ont-ils accès à ses stratégies, ses progrès ?
- Si 80% de la population perd son travail, est-ce que les mêmes sociétés qui ont viré des gens vont voir leur chiffre d'affaires fondre car le pouvoir d'achat global diminue ?
- Si OpenAI devient vraiment la force de travail de demain, ça signifie que chacune des sociétés européenne ou autre passe par une société américaine pour exécuter l'opérationnel. A quel point cela peut nuire à notre économie locale ?
Que peut-on faire de notre côté ?
En tant qu'utilisateur, je maintiens que les outils IA sont supers, on avance beaucoup plus vite. Mais, il faut toujours une supervision humain pour éviter les erreurs.
J'ai encore vu dernièrement un cabinet d'avocats qui a eu beaucoup de problèmes à cause de ChatGPT qui avait changé des termes dans les clauses changeant totalement le contrat.
Si "avant" devient "après", si "peut" devient "doit"... Le contrat n'a plus rien à voir. D'où le besoin d'expertise.
Mais pour les sociétés qui cherchent avant tout le profit et veulent continuer à supprimer des postes, on peut rapidement se retrouver dans une impasse au niveau du pouvoir d'achat et de la consommation.
D'ailleurs j'en parlais dernièrement, la Chine interdit les suppressions de postes liés à l'IA.
Faut-il être radical et interdire certaines actions ? Faut-il être pro IA et remplacer tous les humains ?
Je pense juste qu'il faut trouver un bon entre-deux:
- pour prévenir d'une augmentation des coûts IA que les sociétés ne pourrait pas supporter
- pour ne pas perdre son savoir faire du jour au lendemain
- pour éviter que la Société réduise sa consommation

Alexandre P.
Développeur passionné depuis plus de 20 ans, j'ai une appétence particulière pour les défis techniques et changer de technologie ne me fait pas froid aux yeux.
Poursuivre la lecture

