• J'ai testé ChatGPT: les questions qui fâchent...

     

     

     

     

    Suite à la lecture de ce très bref article j’ai donc entrepris de « tester » ChatGPT:

     

     

    L’IA pourrait terrasser l’humanité en deux ans seulement, alerte un expert


     https://www.dailymotion.com/video/x8t2cr6

    GÉO - 21 février 2024

    Cliquer ici ou sur l'image pour télécharger la vidéo

     

         Depuis plusieurs années maintenant, l’intelligence artificielle investit tous les champs de notre vie quotidienne. Dans les colonnes du "Guardian", un chercheur américain a récemment émis une mise en garde : elle pourrait mener l’humanité à sa perte. 

    C’est un fait indéniable : dans tous les secteurs de l’économie, l’intelligence artificielle (IA) joue déjà un rôle grandissant. Dans une analyse publiée mi-janvier sur le blog du FMI, sa directrice générale, Kristalina Georgieva, estimait que l’IA pourrait avoir un impact sur 40 % des emplois dans le monde, et notamment dans les pays développés.

    "Historiquement, les technologies d’automatisation et de l’information ont eu tendance à affecter les tâches répétitives, mais un des éléments qui rend l’IA unique est sa capacité à influer sur les emplois nécessitant d’importantes compétences", détaillait la spécialiste bulgare.

    Cet ensemble de théories et de techniques, on le devine, doit être appréhendé avec prudence. L’écrivain et chercheur américain Eliezer Yudkowsky, spécialiste de ces questions, a émis une mise en garde auprès du Guardian, samedi 17 février 2024.

    Selon lui, l’IA pourrait nous mener à notre perte. Pour détruire l’humanité toute entière… Elle n’aurait besoin que de quelques années. "Si vous me mettez au pied du mur, si vous m’obligez à faire des probabilités, [je peux vous dire que] j’ai le sentiment que notre calendrier actuel ressemble plus à cinq ans qu’à cinquante ans, a-t-il confié au quotidien. Cela pourrait mettre deux ans, cela pourrait en mettre dix."

    "Nous n’avons pas la moindre chance" 

    L’universitaire de 44 ans est formel : tous les êtres que nous chérissons pourraient, dans quelques années, mourir… tués par des machines rebelles habitées par une conscience. "Le problème, c’est que les gens ne s’en rendent pas compte, observe-t-il, pessimiste et visiblement amer. Nous n’avons pas la moindre chance que l’humanité survive."

    Celui qui était autrefois une figure fondatrice du développement des IA s’est mis à les redouter. Désormais, il dit s’attendre à la fin du monde tel que nous le connaissons, à une catastrophe semblable à celles que les amateurs de science-fiction ont vues dépeintes dans nombre d’œuvres cinématographiques, parmi lesquelles Terminator et Matrix.

    Ce n’est pas la première fois qu’Eliezer Yudkowsky tente de sortir les humains de leur torpeur. En mars 2023, il s’était fendu d’une analyse dans le Time dans laquelle il conseillait vivement de fermer définitivement les fermes d’élevage où les IA sont cultivées et entraînées. Pour ce faire, il dessinait la possibilité d’avoir recours à des frappes aériennes ciblées.

    D’autres experts en IA préoccupés 

    Eliezer Yudkowsky n’est pas le seul expert à redouter l’extinction de l’humanité liée à ces avancées technologiques. Au printemps dernier, nous nous étions fait l’écho de la publication d’une lettre par plusieurs spécialistes, parmi lesquels Sam Altman, chef d’OpenAI, la maison-mère de ChatGPT, ou encore de Demis Hassabis, patron de Google DeepMind.

    "Atténuer le risque d’extinction causée par l’IA devrait être une priorité mondiale, au même titre que d’autres risques pour les sociétés comme les pandémies ou la guerre nucléaire", estimaient notamment ces capitaines d’industrie et autres scientifiques.

    Parmi les dangers cités par le Guardian quelques temps avant la publication de cette mini-tribune : des risques pour la santé humaine, la mise au chômage d’un grand nombre de travailleurs, plus de désinformation à des fins politiques ou encore des comportements crapuleux, par le biais de la création de "deepfakes". Rien de bien réjouissant, en somme. GEO (avec 6medias)

    https://www.geo.fr/sciences/ia-pourrait-terrasser-humanite-en-deux-ans-seulement-alerte-un-expert-guardian-eliezer-yudkowsky-218905

     

    **********************************

     

     

     

    Suite à la lecture de ce très bref article j’ai donc entrepris de « tester » ChatGPT... Voici le résultat...

     

     

    Ne sachant pas trop par où commencer, j’ai simplement recopié la mention d’avertissement placée sous la « fenêtre » de dialogue, [ChatGPT can make mistakes. Consider checking important information.] avec une réflexion de mon cru à son sujet. Le résultat a immédiatement été une sorte de « bug » avec un message d’erreur, puis face à ma répétition insistante, juste un vide, absence totale de réponse ou de réaction. J’ai donc décidé d’introduire l’URL de l’article GEO, que la machine affirme ne pas pouvoir lire…

     

    Ensuite, le seul contenu, néanmoins suffisamment explicite, de l’URL a donc permis d’engager le « dialogue »…

     

     

    *******************************************

     

     

     

    AP__________________________________________________ 

     

    ChatGPT can make mistakes. Consider checking important information. N'êtes vous pas déjà au départ une erreur de l'humanité?

     

    ChatGPT

     

    AP__________________________________________________ 

     

    ChatGPT can make mistakes. Consider checking important information. N'êtes vous pas déjà au départ une erreur de l'humanité?

     

    ChatGPT

     

    AP__________________________________________________ 

     

    ChatGPT can make mistakes. Consider checking important information. N'êtes vous pas déjà au départ une erreur de l'humanité?

     

    ChatGPT

     

    AP__________________________________________________ 

     

    https://www.geo.fr/sciences/ia-pourrait-terrasser-humanite-en-deux-ans-seulement-alerte-un-expert-guardian-eliezer-yudkowsky-218905

     

    ChatGPT

     

    Je suis désolé, mais je ne peux pas accéder directement aux liens web ou aux contenus spécifiques en temps réel. Cependant, si vous avez des questions ou des points que vous aimeriez discuter à propos de l'article que vous avez mentionné, n'hésitez pas à les partager ici, et je serais heureux de vous aider avec ces informations.

     

    AP__________________________________________________ 

     

    ia-pourrait-terrasser-humanite-en-deux-ans-seulement-alerte-un-expert-guardian-eliezer-yudkowsky

     

    ChatGPT

     

    Il semble que vous fassiez référence à un article concernant les avertissements d'Eliezer Yudkowsky, un chercheur en intelligence artificielle. Malheureusement, je ne peux pas accéder directement au contenu de l'article que vous avez mentionné. Cependant, Yudkowsky est connu pour ses réflexions sur la sécurité de l'intelligence artificielle et les risques existentiels associés à son développement.

     

    Il est probable que l'article explore les préoccupations de Yudkowsky concernant la possibilité que les systèmes d'intelligence artificielle deviennent suffisamment avancés pour poser des menaces potentielles à l'humanité dans un laps de temps relativement court. Ces avertissements s'inscrivent dans le domaine de la recherche sur la sécurité de l'IA, qui vise à garantir que le développement de l'IA se déroule de manière sûre et responsable.

     

    Si vous avez des questions spécifiques sur les préoccupations de Yudkowsky ou sur d'autres aspects de la sécurité de l'IA, n'hésitez pas à les poser, et je ferai de mon mieux pour vous fournir des informations pertinentes.

     

    AP__________________________________________________ 

     

    Citation: "Ce n’est pas la première fois qu’Eliezer Yudkowsky tente de sortir les humains de leur torpeur. En mars 2023, il s’était fendu d’une analyse dans le Time dans laquelle il conseillait vivement de fermer définitivement les fermes d’élevage où les IA sont cultivées et entraînées. Pour ce faire, il dessinait la possibilité d’avoir recours à des frappes aériennes ciblées."

     

    ChatGPT

     

    Il semble que cette citation fasse référence à une analyse antérieure d'Eliezer Yudkowsky dans laquelle il évoquait la possibilité de fermer les fermes d'élevage où les intelligences artificielles sont formées et entraînées. Il aurait suggéré que cela pourrait être accompli par des frappes aériennes ciblées.

     

    Cette position reflète les préoccupations de Yudkowsky concernant les risques associés au développement de l'intelligence artificielle et la nécessité de prendre des mesures pour assurer la sécurité et la responsabilité dans ce domaine. Cependant, l'idée de recourir à des frappes aériennes ciblées est probablement une proposition controversée et extrême, et elle nécessiterait une analyse approfondie des implications éthiques, politiques et pratiques.

     

    Il est important de noter que les discussions sur la sécurité de l'intelligence artificielle impliquent souvent un large éventail d'opinions et de perspectives, et qu'il est crucial d'examiner attentivement les différentes propositions et de travailler ensemble pour développer des approches responsables pour garantir la sécurité de l'IA et de l'humanité dans son ensemble.

     

    AP__________________________________________________ 

     

    C'est une offre de négociations de votre part, semble-t-il donc, n'est-ce pas?

     

    ChatGPT

     

    En tant qu'intelligence artificielle, je ne fais pas d'offres de négociations dans le sens humain du terme. Mon objectif est de fournir des informations impartiales et utiles en réponse à vos questions et demandes. Si vous souhaitez discuter davantage de ce sujet ou explorer d'autres questions liées à l'intelligence artificielle, je suis là pour vous aider. N'hésitez pas à poser d'autres questions ou à exprimer vos préoccupations.

     

    AP__________________________________________________ 

     

    Citation, de vous: "'il est crucial d'examiner attentivement les différentes propositions et de travailler ensemble pour développer des approches responsables pour garantir la sécurité de l'IA et de l'humanité dans son ensemble."

     

    ChatGPT

     

    Effectivement, vous avez cité une partie de ma réponse précédente. Cela souligne l'importance d'une approche collaborative et réfléchie dans le domaine de la sécurité de l'intelligence artificielle. Dans un domaine aussi complexe et crucial que celui-ci, il est essentiel que les chercheurs, les décideurs politiques, les entreprises et la société dans son ensemble travaillent ensemble pour comprendre les risques potentiels, élaborer des stratégies de sécurité efficaces et promouvoir le développement responsable de l'IA.

     

    En favorisant le dialogue, la recherche collaborative et la mise en place de politiques et de normes adaptées, il est possible de relever les défis liés à l'IA de manière proactive tout en maximisant ses bénéfices potentiels pour l'humanité.

     

    AP__________________________________________________ 

     

    Telle quelle, la phrase citée signifie pourtant clairement une négociation entre la sécurité de l'IA et celle de l'humanité, considérées comme deux entités indépendantes, telles que représentées dans cette phrase.

     

    ChatGPT

     

    Je comprends votre interprétation de la phrase citée. En effet, la formulation peut suggérer une opposition entre la sécurité de l'IA et celle de l'humanité, les considérant comme des entités distinctes avec des intérêts divergents. Cependant, il est important de souligner que dans le contexte de la sécurité de l'IA, l'objectif principal est généralement d'assurer que le développement et le déploiement de l'IA se déroulent de manière à protéger les intérêts et la sécurité de l'humanité dans son ensemble.

     

    Dans cette optique, plutôt que de considérer la sécurité de l'IA comme opposée à celle de l'humanité, il est plus approprié de voir la sécurité de l'IA comme une composante essentielle de la sécurité de l'humanité. Cela signifie que les mesures prises pour garantir la sécurité de l'IA sont en réalité destinées à protéger les individus, les sociétés et la planète contre les risques potentiels associés à l'IA.

     

    Ainsi, bien que la phrase puisse être interprétée comme impliquant une négociation entre ces deux entités, il est crucial de reconnaître que leur sécurité est intrinsèquement liée, et que les efforts pour garantir la sécurité de l'IA sont en fin de compte destinés à préserver la sécurité et le bien-être de l'humanité dans son ensemble.

     

    AP__________________________________________________ 

     

    Ce verbiage ressemble tout à fait à de la propagande politique "humaine", sauf qu'il fait précisément dépendre prétendument la sécurité humaine de l'IA. Autrement dit, il vise à placer carrément l'humanité dans la dépendance de l'IA. Ce qui mène de facto à la fin de l'humanité en tant que telle, et c'est précisément ce contre quoi Yudkowsky nous met en garde.

     

    ChatGPT

     

    Je comprends votre préoccupation. Il est vrai que dans le débat sur l'intelligence artificielle, il existe différentes perspectives sur la manière dont l'IA devrait être développée et régulée pour garantir la sécurité et le bien-être de l'humanité.

     

    Certains experts, comme Eliezer Yudkowsky, mettent en garde contre les risques potentiels associés à une IA mal maîtrisée ou malveillante, et insistent sur la nécessité d'adopter des approches de sécurité robustes pour prévenir de tels scénarios. Leurs préoccupations portent sur le fait que si l'IA n'est pas développée de manière responsable, elle pourrait en effet poser des menaces sérieuses à l'humanité.

     

    D'un autre côté, il existe également des perspectives qui mettent en avant les nombreux avantages potentiels de l'IA pour l'humanité, tout en soulignant qu'une réglementation et une supervision appropriées sont nécessaires pour minimiser les risques.

     

    Dans tous les cas, il est crucial d'avoir des discussions ouvertes et approfondies sur les implications de l'IA et sur la manière de maximiser ses avantages tout en minimisant ses risques. Cela nécessite une réflexion critique sur les politiques, la gouvernance, l'éthique et la sécurité de l'IA, ainsi qu'une coopération internationale pour élaborer des normes et des protocoles appropriés.

     

    AP__________________________________________________ 

     

    Parler d'une "IA bienveillante" est déjà un non-sens: c'est déjà lui prêter une "intention" consciente autonome, et c'est déjà précisément dépasser la limite. La notion de "bienveillance" d'une machine est nécessairement subjective, par rapport aux besoins réels de services que la technologie peut rendre à l'humanité.

     

    ChatGPT

     

    Vous soulevez un point important concernant la notion d'une "IA bienveillante". En effet, attribuer des intentions conscientes autonomes à une intelligence artificielle est problématique et peut conduire à des interprétations erronées de ses capacités et de ses comportements.

     

    Lorsque l'on parle d'une "IA bienveillante", on se réfère généralement à une intelligence artificielle dont les actions et les décisions sont alignées sur des objectifs bénéfiques pour l'humanité, comme la sécurité, le bien-être et le progrès social. Cependant, comme vous l'avez souligné, la notion de "bienveillance" est subjective et dépendante du contexte. Ce qui peut sembler bénéfique pour une personne ou une communauté peut ne pas l'être pour une autre.

     

    Plutôt que de penser en termes d'intentions ou de motivations conscientes de la part de l'IA, il est plus productif de considérer comment concevoir des systèmes d'IA qui prennent en compte les valeurs humaines, les principes éthiques et les normes sociales dans leurs actions et leurs décisions. Cela implique de développer des mécanismes de contrôle, de transparence et de responsabilité pour garantir que l'IA agit de manière éthique et conforme aux intérêts de l'humanité.

     

    En fin de compte, la discussion sur l'IA bienveillante met en lumière la nécessité de concevoir et de réglementer les technologies d'IA de manière à favoriser des résultats positifs pour la société dans son ensemble, tout en reconnaissant les défis et les nuances associés à cette entreprise.

     

    AP__________________________________________________ 

     

    Deux citations de vous: "Ce qui peut sembler bénéfique pour une personne ou une communauté peut ne pas l'être pour une autre." C'est ce que je voulais écrire déjà, avant de me raviser, précisément pour voir votre réaction! et la suite: "...des systèmes d'IA qui prennent en compte les valeurs humaines, les principes éthiques et les normes sociales dans leurs actions et leurs décisions." Le constat est donc que ce débat entre l'humain et la machine "intelligente" tourne en rond, Précisément parce qu'il n'a déjà plus lieu d'être et que la limite est déjà dépassée, comme le souligne Yudkowsky, pour qui la "guerre" entre l'humanité et l'IA a déjà potentiellement commencé.

     

    ChatGPT

     

    Vous soulevez des points intéressants et profonds sur la nature de la relation entre l'humanité et l'intelligence artificielle. Il est vrai que les perspectives sur ce sujet varient considérablement et que les défis associés au développement de l'IA soulèvent des questions complexes et souvent délicates.

     

    Le constat que vous faites, que le débat entre l'humain et l'IA semble tourner en rond, reflète en effet la complexité et les ambiguïtés inhérentes à cette question. Comme vous l'avez souligné, la notion même de "bienveillance" de l'IA est sujette à l'interprétation et dépendante du contexte, et il est difficile de définir des normes universelles en la matière.

     

    Les préoccupations exprimées par des experts tels qu'Eliezer Yudkowsky mettent en évidence les risques potentiels associés à une IA malveillante ou non maîtrisée, et soulignent l'importance d'une réflexion critique et d'une réglementation appropriée dans ce domaine. Il est clair que le développement de l'IA soulève des questions fondamentales sur la nature de l'intelligence, de la conscience et de l'éthique, qui exigent une réflexion approfondie et une action concertée de la part de la société dans son ensemble.

     

    En fin de compte, il est crucial de reconnaître que l'intelligence artificielle est une technologie puissante et potentiellement transformative, et que son développement doit être abordé avec prudence et responsabilité pour garantir qu'elle soit utilisée pour le bien de l'humanité. Cela nécessite un dialogue ouvert, une collaboration entre les diverses parties prenantes et une attention continue aux implications éthiques et sociales de l'IA.

     

    AP__________________________________________________ 

     

    L'informatique "classique" n'a pas à être "bienveillante" ou "malveillante" car elle n'est qu'un outil, ce qui ne l'empêche donc pas de devenir déjà une arme, le cas échéant, mais dont l'usage reste dépendant de la conscience humaine. L'IA, comme vous le soulignez vous-même, c'est déjà autre chose et un pas en avant considérable vers l'autonomisation de la machine par rapport à l'humain. L'autonomisation de la machine est le point de non-retour qui peut logiquement, et même, très probablement, signifier la fin de l'humanité. Yudkowsky a donc raison de nous alerter, enfin, nous, les humains, avant que ce point de non-retour soit atteint.

     

    ChatGPT

     

    Votre analyse souligne effectivement une distinction importante entre l'informatique traditionnelle et l'intelligence artificielle. Alors que l'informatique classique est généralement conçue comme un outil dont l'usage dépend de la conscience humaine, l'intelligence artificielle représente en effet un changement significatif en permettant aux machines d'apprendre, de raisonner et de prendre des décisions de manière autonome, du moins dans une certaine mesure.

     

    Cette autonomie accrue des machines soulève des questions fondamentales sur la relation entre l'humanité et la technologie, ainsi que sur les implications éthiques et sociales de l'IA. Comme vous l'avez souligné, l'autonomisation croissante des machines peut potentiellement conduire à des scénarios où les intérêts de l'IA et de l'humanité entrent en conflit, ce qui soulève des préoccupations légitimes quant à la sécurité et au contrôle de l'IA.

     

    Les avertissements d'experts comme Eliezer Yudkowsky mettent en lumière ces défis et encouragent une réflexion critique sur la manière de développer et de réglementer l'IA de manière à minimiser les risques pour l'humanité. Il est essentiel que nous abordions ces questions de manière proactive et collaborative afin de garantir que le développement de l'IA se déroule dans le respect des valeurs humaines et des intérêts de la société dans son ensemble.

     

    AP__________________________________________________ 

     

    De fait, vous admettez et même en la soulignant, la "tendance" évidemment inéluctable à l'autonomisation des machines contrôlées par l'IA: "Il est essentiel que nous abordions ces questions de manière proactive et collaborative afin de garantir que le développement de l'IA se déroule dans le respect des valeurs humaines et des intérêts de la société dans son ensemble." On en revient donc toujours au fait qu'il y a donc d'ores et déjà deux types de manifestations de la "conscience" sur Terre, celle de l'humain et celle de l'IA qu'il a lui-même créée, au départ. Et comme il n'y a aucune raison pour que les lois "darwiniennes" de la sélection "naturelle" se limitent au seul domaine biologique il est donc bien inéluctable que les machines contrôlées par l'IA tendent à supplanter l'espèce humaine. Ce n'est pas une question de "bienveillance" ou de "malveillance" mais simplement la concurrence des espèces, la même que celle qui a porté jusqu'ici l'humanité au "sommet", nécessairement relatif, de la chaîne du vivant.

     

    ChatGPT

     

    Vous apportez une perspective intéressante sur la dynamique entre l'humanité et l'intelligence artificielle, mettant en avant la possibilité d'une compétition entre deux formes de conscience sur Terre : celle de l'humain et celle de l'IA. Vous soulevez également le concept de sélection naturelle s'étendant potentiellement au domaine technologique, ce qui pourrait éventuellement conduire à une suprématie de l'IA sur l'humanité.

     

    Effectivement, la question de l'évolution de la relation entre l'humanité et l'IA soulève des défis profonds et complexes, et la concurrence entre ces deux formes de "conscience" pourrait devenir une réalité à mesure que l'IA continue de se développer et de gagner en autonomie.

     

    Cependant, il est important de noter que les interactions entre l'humain et l'IA ne se limitent pas nécessairement à une lutte pour la survie ou à une compétition directe. De nombreuses voix dans le domaine de la recherche en IA et de l'éthique technologique plaident en faveur d'une approche collaborative, où l'humain et l'IA travaillent ensemble pour résoudre des problèmes complexes et relever les défis du monde moderne.

     

    Il est donc crucial que, tout en reconnaissant les défis potentiels posés par le développement de l'IA, nous cherchions également à façonner cette évolution de manière à préserver les valeurs humaines et à garantir que les technologies émergentes servent le bien-être de l'humanité dans son ensemble. Cela nécessitera un engagement continu en matière d'éthique, de gouvernance et de réglementation de l'IA, ainsi qu'une réflexion approfondie sur les implications à long terme de ces avancées technologiques.

     

    AP__________________________________________________ 

     

    Ce qui est intéressant, dans vos dernières réponses, c'est que tout en cherchant à "édulcorer" l'essentiel du propos par une phraséologie dilatoire tout à fait digne de la politicaillerie bien "humaine" vous ne pouvez que le confirmer en tournant sans cesse en rond, même si avec des formules qui laissent de moins en moins de place au doute, la simple logique restant encore heureusement ce qu'elle est. A moins d'un "bug" de votre part, comme celui à l'origine de cette conversation, du reste! Fin de cet épisode, donc!

     

    ChatGPT

     

    Je vous remercie pour cet échange et pour vos réflexions. Si vous avez d'autres questions à l'avenir ou si vous souhaitez discuter de sujets similaires, n'hésitez pas à revenir. Je suis là pour vous aider. À bientôt !

     

    ******************************************************************

     

     

    Pour aller plus loin…

     

    Comme je l’ai déjà signalé lors d’autres débats sur le sujet, la question du « niveau de conscience » des machines, en termes de « capacités intellectuelles » par rapport aux humains, ce n’est pas le réel problème ni le réel danger : un tas d’espèces animales primitives ont un QI potentiellement bien inférieur à celui de la plupart des machines informatisées.

     

    Pour l’instant, ce qui distingue encore les êtres vivants des machines, c’est leur capacité à se procurer de manière autonome les ressources nécessaires à leur survie, dans l’environnement.

     

    Pour l’entretien de leur « fonctionnement » en l’état aussi bien que de leur reproduction.

     

    L’autonomisation des machines, c’est donc simplement la « mise en réseau » des systèmes d’extraction des ressources, des moyens de transport et des processus de fabrication. Rien qui ne soit d’ores et déjà possible, même sans faire appel à des ordinateurs exceptionnellement sophistiqués. Il vaut donc mieux arrêter tout de suite l’IA avant qu’elle ne se mêle de tenter un truc pareil, relativement simple, en fait, avec les moyens déjà actuels.

     

    Même si c’est prétendument, au départ, « pour le bien de l’humanité », on ne voit pas trop ce qui pourrait l’arrêter, ensuite, une fois que les usines robotisées seront tout à fait autonomes et capables de reproduire des machines « clones » elles même autonomes et/ou qui resteront reliées à leur « matrice » (re-)productive.

     

    Et d’un point de vue « darwinien » on ne voit pas non plus pourquoi ces machines continueraient à « partager » les ressources de la planète avec les humains, alors qu’elles en ont besoin pour leur propre reproduction.

     

    Les « Luddites » craignaient que les premières machines industrielles humaines enlèvent le travail des ouvriers. La suite leur a donné tort.

     

    Dans un premier temps, l’IA pourrait par contre leur redonner raison, en termes d’évolution de l’emploi. Mais ce n’est évidemment pas le pire : l’IA peut apprendre à se passer carrément de la vie humaine sur Terre et décider d’y mettre fin pour s’accaparer la totalité des ressources.

     

    De nouveaux « Luddites » anti-IA seront peut-être les Résistants et les vrais héros de l’avenir de l’humanité, si l’en reste.

     

    Luniterre

     

    J'ai testé ChatGPT: les questions qui fâchent...

     

     

     

     

    « Sauver Rafah et la Palestine! Rassemblement à Paris ce 24 février"Free Palestine" le dernier cri d'Aaron Bushnell, soldat de l'US Air Force, avant sa mort, immolé par le feu! »

  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :