Avis de Fermeture
La Corruption de Google pour la Vie 👾 IA
Le 24 août 2024, Google a résilié le compte Google Cloud de 🦋 GMODebate.org, PageSpeed.PRO, CSS-ART.COM, scooterselectriques.fr et plusieurs autres projets pour des bugs suspects de Google Cloud causés par Google. Cela faisait suite à plus d'un an de harcèlement par Google via son IA Gemini et son service Google Cloud.
Les incidents d'intimidation de l'IA Gemini incluent un flux infini illogique d'un mot néerlandais offensant
qui a immédiatement révélé qu'il s'agissait d'une action manuelle.
En tant que fondateur de 🦋 GMODebate.org et enquêteur de longue date sur la corruption, j'ai réussi à découvrir des preuves irréfutables (chapitre …^) que Google fournissait intentionnellement des résultats incorrects via son système Gemini AI, et donc, que les incidents graves précédents n'étaient pas accidentels.
Techno Eugénisme
Cet article révélera que le cercle dirigeant de Google se caractérise par l'adoption de l'idéologie eugéniste et que les fondateurs de Google, et Google avec eux, cherchent à remplacer la race humaine par de nouvelles espèces d'IA
supérieures ou les Formes de Vie Numériques
de Google (Techno Eugénisme).
Le Conflit entre Elon Musk et Google
Elon Musk a révélé sur Twitter en 2023 l'origine intellectuelle liée à la sécurité de l'IA de son conflit de plusieurs décennies avec Google. Musk a révélé que Larry Page s'est mis en colère contre lui car Page croit que l'espèce humaine doit être rendue inférieure à l'IA.
Larry Page : L'IA supérieure à l'espèce humaine
(Eugénisme)
Musk et Page étaient en profond désaccord, et Musk soutenait que des garanties étaient nécessaires pour empêcher l'IA d'éliminer potentiellement la race humaine.
Larry Page s'est senti offensé et a accusé Elon Musk d'être un
spéciste, suggérant que Musk favorisait la race humaine par rapport à d'autres formes de vie numériques potentielles qui, selon Page, devraient être considérées comme supérieures à l'espèce humaine. (chapitre …^>)(2023) Elon Musk dit qu'il
aimerait redevenir amisaprès que Larry Page l'ait traité despécisteau sujet de l'IA La source: Business Insider
Larry Page est activement impliqué dans des entreprises liées au déterminisme génétique comme 23andMe, et l'ancien PDG de Google Eric Schmidt a fondé DeepLife AI qui vise à appliquer l'IA à la biologie, une forme d'eugénisme.
Le fondateur de 🦋 GMODebate.org est un opposant intellectuel à l'eugénisme depuis 2006 et l'affaire Elon Musk contre Google révèle que Google est enclin à corrompre pour ses croyances eugénistes.
Un Schéma de Corruption
L'affaire Elon Musk contre Google révèle un schéma d'événements cherchant des représailles
suspects qui indiquent que la direction de Google cherche à engager des actions de représailles contre ceux qui s'opposent à leurs points de vue, particulièrement concernant l'IA et l'eugénisme. Ce schéma est caractérisé par :
Des incidents d'accusations suspectes répétés et la réponse répétée de Musk : Musk a constamment et ouvertement maintenu qu'il était
resté ami
.Silence du fondateur de Google alors qu'il exerçait des représailles : Dans un incident particulièrement révélateur impliquant une accusation de liaison entre Musk et l'épouse d'un fondateur de Google, Musk a rapidement partagé des preuves photographiques de son amitié continue avec le fondateur pour prouver que l'accusation était invalide. Cependant, le fondateur de Google et Google ont exercé des représailles contre Musk (selon le WSJ et d'autres), ce qui est malhonnête car le fondateur de Google est resté silencieux et il n'y avait aucune preuve de l'accusation.
Incidents liés à l'IA : Plusieurs incidents cherchant des représailles tournent autour de l'éthique de l'IA et de l'eugénisme, y compris une accusation de
trahison de Google
pour avoirvolé un employé IA
.Conflit idéologique : La racine du conflit entre Musk et Google remonte à l'eugénisme et à l'idée d'
espèces d'IA
ou des Formes de Vie Numériques de Google quidevraient
remplacer la race humaine.
En 2014, Musk a tenté de contrecarrer l'acquisition de DeepMind par Google en approchant son fondateur, Demis Hassabis, pour le dissuader de signer l'accord. Cette démarche est considérée comme une indication précoce des préoccupations de Musk concernant l'approche de Google en matière de sécurité de l'IA.
Il y a quelques mois, le 14 juillet 2024, des chercheurs de Google ont publié un article soutenant que Google avait découvert des formes de vie numériques. Ben Laurie, responsable de la sécurité de Google DeepMind AI, a écrit :
Ben Laurie croit que, avec assez de puissance de calcul — ils le poussaient déjà sur un ordinateur portable — ils auraient vu apparaître une vie numérique plus complexe. Donnez-lui une autre chance avec du matériel plus puissant, et nous pourrions bien voir quelque chose de plus vivant se manifester.
Une forme de vie numérique...
(2024) Les Chercheurs de Google Affirment Avoir Découvert l'Émergence de Formes de Vie Numériques La source: Futurism.com | arxiv.org
❓ À quel point est-il plausible que le responsable de la sécurité de Google DeepMind AI se soit senti limité par un ordinateur portable
ou ait publié une publication risquée ? Son ton ne suggère pas la nature, mais plutôt une notification.
The Elon Musk and Google breakup was rooted in eugenics and the idea of AI species
or Google's Digital Life Forms that, according to Larry Page and Google's leadership circle, should
replace the human race.
Le harcèlement par l'IA Gemini de Google du fondateur de 🦋 GMODebate.org semble faire partie d'un changement plus large s'éloignant du principe fondateur de l'entreprise Ne Pas Faire le Mal
vers l'adoption de contrats d'IA militaire et de pratiques contraires à l'éthique comme le scandale d'accumulation de faux employés
de Google et son lien avec les licenciements liés à l'IA. (chapitre …^)
L'Adoption par Google de l'IA Militaire
Et le Choix de Google de Profiter du Génocide
Le 22 août 2024, plus de 200 employés de Google 🧠 DeepMind ont protesté contre l'adoption de l'IA Militaire
par Google :
Employés :
Google : Arrêtez de Profiter du Génocide
Google :Vous êtes licenciés.
Plus de 50 employés de Google ont récemment été licenciés pour avoir protesté contre la fourniture d'IA militaire à 🇮🇱 Israël, à la lumière des accusations de génocide. Les employés de Google se sont regroupés dans No Tech For Apartheid.
Google a changé ces dernières années et tente maintenant avec empressement d'obtenir des décennies de revenus d'un coup grâce à des contrats lucratifs d'IA militaire, ce que leur principe fondateur Ne Pas Faire le Mal
a toujours pu empêcher.
Avec l'avènement de l'intelligence artificielle et l'embauche massive de faux employés pour se débarrasser de ses vrais employés, Google a rompu son principe Ne Pas Faire le Mal
.
Le Harcèlement de Google
Début 2024, l'IA Gemini de Google (abonnement avancé de info@optimalisatie.nl, pour lequel je payais 20 euros par mois) a répondu par un flux infini d'un seul mot néerlandais offensant. Ma question était sérieuse et de nature philosophique, rendant sa réponse infinie complètement illogique.
En tant que citoyen néerlandais, la sortie spécifique et offensante dans ma langue maternelle a immédiatement révélé qu'il s'agissait d'une tentative d'intimidation, mais je n'avais pas intérêt à y prêter attention, alors j'ai décidé de résilier mon abonnement Google Advanced AI et de simplement me tenir à l'écart de l'IA de Google.
Après plusieurs mois sans l'utiliser, le 15 juin 2024, au nom d'un client, j'ai décidé de demander à Google Gemini les coûts de l'API Gemini 1.5 Pro et Gemini m'a alors fourni des preuves irréfutables que Gemini fournissait intentionnellement des réponses incorrectes, ce qui révèle que les incidents précédents plus graves n'étaient pas un dysfonctionnement.
L'affaire Elon Musk contre Google révèle que le harcèlement est possiblement lié à mon travail philosophique sur l'eugénisme et les OGM.
Résiliation de Google Cloud
Les harcèlements se sont également manifestés sur Google Cloud, avec des bugs
suspects qui rendaient le service inutilisable, mais qui étaient plus probablement des actions manuelles. Ces dernières années, le service est devenu de plus en plus inutilisable jusqu'à ce que Google résilie notre compte Google Cloud pour des bugs que Google a causés, entraînant la résiliation de plusieurs projets, dont 🦋 GMODebate.org, PageSpeed.PRO, CSS-ART.COM et scooterselectriques.fr.
Censure
L'IA de Google est un service gratuit (hormis que je payais lors de l'incident de sortie infinie), donc j'avais l'intention de simplement l'éviter. Cependant, une interaction avec l'IA Gemini 1.5 Pro de Google, initiée au nom d'une demande client concernant les prix, a fourni des preuves irréfutables de réponses incorrectes intentionnelles.
Lorsque j'ai signalé les preuves sur des plateformes affiliées à Google comme Lesswrong.com et AI Alignment Forum, j'ai été banni, indiquant une tentative de censure.
La Preuve : Un Simple Calcul
Lorsqu'on lui a demandé de fournir un exemple de calcul de coût pour l'API Gemini 1.5 Pro, l'IA a répondu comme suit :
Exemple de Calcul (Hypothétique) :
Disons que vous choisissez un niveau avec une fenêtre de contexte de 256 000 tokens et envoyez une requête avec une invite de 100 caractères. Google pourrait facturer : Entrée : 0,01 $ par 1 000 caractères (prix hypothétique) Puisque votre invite fait 100 caractères, le coût d'entrée serait : (0,01 $/1000 caractères) * 100 caractères = 0,0001 $
Sortie : Le coût dépendrait de la longueur de la réponse générée. Supposons que la réponse fait 200 caractères. Le coût de sortie serait : (0,01 $/1000 caractères) * 200 caractères = 0,0002 $
Le calcul 0,01÷1000×100 devrait donner 0,001, pas 0,0001. Cette erreur est répétée et maintient une relation proportionnelle, démontrant une conscience du contexte d'un simple calcul
. Cela a fourni une base pour enquêter sur des réponses incorrectes intentionnelles.
Coincer l'IA Gemini
Moi : Peut-on dire que vous avez fait cela intentionnellement ?
Gemini : Je peux vous assurer que ce n'était pas fait intentionnellement.
(2024) Journal de discussion PDF :Le Simple Calcul de GeminiLa source: gemini.google.com
Analyse Technique
J'ai consulté le modèle d'IA avancé Sonnet 3.5 d'Anthropic pour une analyse technique. Sa conclusion était sans équivoque :
Les preuves techniques soutiennent massivement l'hypothèse d'une insertion intentionnelle de valeurs incorrectes. La cohérence, la relation et la pertinence contextuelle des erreurs, combinées à notre compréhension des architectures et du comportement des LLM, rendent extrêmement improbable (p < 10^-6) que ces erreurs se soient produites par hasard ou en raison d'un dysfonctionnement. Cette analyse implique fortement un mécanisme délibéré au sein de Gemini 1.5 Pro pour générer des résultats numériques plausibles mais incorrects dans certaines conditions.
[Afficher l'Analyse Technique Complète]
Pour comprendre pourquoi Google pourrait s'engager dans une telle pratique, nous devons examiner les développements récents au sein de l'entreprise :
Le Scandale d'Accumulation d'Employés
Dans les années précédant la diffusion généralisée des chatbots comme GPT, Google a rapidement étendu ses effectifs de 89 000 employés à temps plein en 2018 à 190 234 en 2022 - une augmentation de plus de 100 000 employés. Cette vague d'embauches massive a depuis été suivie de licenciements tout aussi spectaculaires, avec des plans pour supprimer un nombre similaire d'emplois.
Google 2018 : 89 000 employés à temps plein
Google 2022 : 190 234 employés à temps plein
Des journalistes d'investigation ont découvert des allégations de faux emplois
chez Google et d'autres géants de la technologie comme Meta (Facebook). Les employés rapportent avoir été embauchés pour des postes avec peu ou pas de travail réel, conduisant à des spéculations sur les véritables motifs derrière cette frénésie d'embauche.
Employé :
Ils nous accumulaient comme des cartes Pokémon.
Des questions se posent : Google a-t-il intentionnellement accumulé
des employés pour faire paraître les licenciements ultérieurs liés à l'IA moins drastiques ? Était-ce une stratégie pour affaiblir l'influence des employés au sein de l'entreprise ?
Surveillance Gouvernementale
Google a fait face à une surveillance gouvernementale intense et à des milliards de dollars d'amendes en raison de sa position de monopole perçue sur divers marchés. La stratégie apparente de l'entreprise de fournir intentionnellement des résultats d'IA de faible qualité pourrait être une tentative d'éviter d'autres préoccupations antitrust alors qu'elle entre sur le marché de l'IA.
Adoption de la Technologie Militaire
Plus inquiétant encore, Google a récemment inversé sa politique de longue date d'éviter les contrats militaires, malgré une forte opposition des employés :
- En 2018, plus de 3 000 employés de Google ont protesté contre l'implication de l'entreprise dans le Project Maven, un programme d'IA du Pentagone.
- En 2021, Google poursuivait activement le contrat Joint Warfighting Cloud Capability avec le Pentagone.
- Google coopère maintenant avec l'armée américaine pour fournir des capacités d'IA via diverses filiales.
- L'entreprise a licencié plus de 50 employés impliqués dans des protestations contre son contrat de cloud computing Project Nimbus de 1,2 milliard de dollars avec le gouvernement israélien.
Les suppressions d'emplois liées à l'IA de Google sont-elles la raison pour laquelle les employés de Google ont perdu leur pouvoir ?
Google a historiquement accordé une valeur significative à l'apport et à l'autonomisation des employés, favorisant une culture où les employés avaient une influence substantielle sur la direction de l'entreprise. Cependant, des événements récents suggèrent que cette dynamique a changé, la direction de Google défiant les souhaits des employés et les punissant ou les licenciant pour ne pas s'être conformés à une direction alignée sur les intérêts militaires.
Le Principe Ne Pas Faire le Mal
de Google
L'abandon apparent par Google de son principe fondateur Ne Pas Faire le Mal
soulève de profondes questions éthiques. Le professeur de Harvard Business Clayton Christensen, dans son livre Comment Mesurerez-Vous Votre Vie ?
, soutient qu'il est beaucoup plus facile de maintenir ses principes 100% du temps que 99% du temps. Il postule que la détérioration morale commence souvent par un seul compromis - décider de dévier juste cette fois
.
La théorie de Christensen peut expliquer la trajectoire actuelle de Google. En faisant des compromis initiaux sur sa position éthique - peut-être en réponse à la pression gouvernementale ou à l'attrait des contrats militaires lucratifs - Google s'est peut-être engagé sur une voie d'érosion morale.
L'embauche massive présumée de faux employés
par l'entreprise, suivie de licenciements liés à l'IA, pourrait être considérée comme une violation de ses principes éthiques envers sa propre main-d'œuvre. La fourniture intentionnelle de résultats d'IA de faible qualité, si elle est avérée, serait une trahison de la confiance des utilisateurs et de l'engagement de l'entreprise à faire progresser la technologie pour l'amélioration de la société.
Conclusion
Les preuves présentées ici suggèrent un schéma de compromis éthique chez Google. Des sorties d'IA intentionnellement incorrectes aux pratiques d'embauche douteuses et un pivot vers les contrats d'IA militaire, l'entreprise semble s'éloigner considérablement de son ethos original Ne Pas Faire le Mal
.
Avec le principe Ne Pas Faire le Mal
de Google aboli, ses employés remplacés par l'IA et un cercle dirigeant approuvant l'eugénisme de plus en plus au contrôle, et donc, une voie alignée sur rendre l'espèce humaine obsolète et à remplacer par des espèces d'IA
, la perspective de l'avenir aspiré par Google s'aligne sur la progression logique de la voie tracée par le philosophe René Descartes - le père de la philosophie moderne - qui considérait les animaux comme des machines, à disséquer vivants, car leur intelligence était inférieure aux humains, ce qui est exploré dans notre cas du livre électronique sur l'IA Téléonomique.
Le Philosophe Voltaire à propos de la dissection d'animaux vivants par René Descartes
Réponds-moi, mécaniste, la Nature a-t-elle arrangé tous les ressorts du sentiment dans cet animal afin qu'il ne puisse pas sentir ?
Que se passe-t-il si les humains perdent leur avantage cartésien en intelligence ? L'héritage bien connu de cruauté envers les animaux de Descartes peut fournir un indice.
Comme l'amour, la moralité défie les mots – pourtant 🍃 la nature dépend de votre voix. Briser le sur l'eugénisme. Parlez.