• AgoraVox sur Twitter
  • RSS
  • Agoravox TV Mobile

Les commentaires de herve_hum



  • 1 vote
    herve_hum 20 juin 2024 15:32

    @herve_hum
    l’autre objectif, plus important encore étant de continuer à saper l’ONU pour finir par sa décrépitude totale, le but étant l’avènement d’un monde orwellien, incompatible avec toute forme d’organisation internationale de gestion des conflits sur la base d’un droit international.

     Bref, en signant ce texte, ils ne rappellent pas leur attachement au droit international, mais au contraire, signe sa décrépitude.



  • 2 votes
    herve_hum 20 juin 2024 15:17

    a l’écoute de Pascal Lottaz, il est clair que ce communiqué final est une véritable tartufferie digne des Monty Pyton

    Quant à ce que dit Jacques Baud au début, je ne partage pas son avis, pour ma part, l’objectif de ce sommet de l’idiotie consistait dans une tentative de diviser les pays du sud et plus particulièrement des BRICS, car encore une fois, le communiqué prouve qu’il s’agit là d’une pure tartufferie diplomatique, totalement absurde dans ce qui est écrit.



  • vote
    herve_hum 19 juin 2024 09:38

    @pemile

    mais c’est toi qui est pitoyable et l’insulte tu la porte contre toi même mon pauvre pemile.

     Reprend donc le fil de notre discussion, qui c’est qu me parle de Poutine ? C’est toi mon pauvre pemile.

    Moi je ne fais que te faire remarquer qu’à ce jeu des pourritures, ben, elles sont autant d’un coté que de l’autre, sauf que toi, ben, tu ne voyais que d’un coté.

    Bref, tu sens la merde dans un seul sens, sauf lorsqu’on te la fait sentir dans l’autre sens. Et là, quelle est ta réaction ? Tu te désole du fait que cela sente aussi.

    T’es pathétique, mais tu t’en rend même pas compte

    Allez, je te laisse le mot de la fin, j’ai autre chose à faire



  • vote
    herve_hum 19 juin 2024 09:34

    @pemile

    Toi, tu vas finir par nous vendre une IA consciente !

    toujours d’aussi mauvaise foi le pemile, étant donné que j’ai toujours affirmé que ce qu’on ne peut pas donner à l’IA c’est la conscience et toi tu viens me dire le contraire.

    Non, bis repetita, dans le cas d’un robot tueur, ce sont les données d’apprentissage et celles reçues par les capteurs (caméra, lidar, etc) qui définissent l’action.

    Mais tu peux faire autant que tu veux du bis repetita, seul l’humain définit l’objectif à l’IA, sans cela, aucun militaire ne voudrait de l’IA. et d’ailleurs, chaque fois que cela arrive, ben comme dis dans l’expérience rapporté dans mon précédent commentaire, ils déconnecte l’IA, jusqu’à ce que le résultat soit conforme à la volonté des militaires

    C’est du simple bon sens, mais pemile qui se croit très intelligent cherche ailleurs

    Bon, j’ai eut ma dose pour aujourd’hui...



  • vote
    herve_hum 19 juin 2024 09:24

    @pemile

    Ordonner à ses soldats de ne faire aucun prisonnier et de décapiter les soldats ennemis c’est conforme à ta notion du droit international ?

    certainement pas, mais cela reste des soldats.

    mais faire la même chose et pire encore, commettre un génocide est ce conforme à la notion du droit international ? (qui est ni la mienne, ni la tienne)

    Pourtant, c’est ce que fait Netanyahu le terroriste génocidaire avec les palestiniens, pourtant, il a été invité à prononcer un discours devant le congrès américain le 24 juillet. Il est interviewé par la télévision française avec tout le respect de grand chef d’Etat bien comme il faut.



  • vote
    herve_hum 19 juin 2024 09:16

    @pemile

    De dire dans le même post un truc et son contraire ?

    explique moi donc cela

    J’en suis certain et ça a été facilement prouvé, il est souvent très facile de leurrer une IA et une IA utilisant une caméra ne sera jamais fiable à 100% et n’ayant aucune connaissance du réel sera incapable de gérer de nouvelles situations.

    tu confond entre faire une mauvaise analyse dû aux limites (entre autres) que tu souligne qui conduit à une action contraire et décider de faire une action contraire avec ou sans mauvaise analyse de l’IA

    Je me souviens d’un expert (réel celui-là) relatant une expérience où l’IA avait pris la main sur l’humain parce qu’elle avait considérée qu’il l’empêchait d’accomplir sa mission définie comme ordre premier. Alors que l’IA n’avait pas l’autorisation dans son programme, mais dès lors où l’ordre premier lui dit d’accomplir sa mission,  que le principe de l’IA est l’auto apprentissage, ben, cela implique la possibilité à l’IA de modifier le programme pour accomplir l’ordre premier qui est le seul qui s’impose de manière absolue à elle.

    Bref, l’IA avait identifié ce qui la bloquait et avait agit en conséquence.

    tu sais quoi ? Ben, ils ont déconnecté l’IA

    Mais l’IA obéit toujours à ce qui lui est demande, elle se contente d’exécuter l’ordre et si l’humain se trompe, ce n’est pas son problème étant donnée que le sens de son action est définie par l’humain et lui seul.



  • vote
    herve_hum 18 juin 2024 20:57

    @pemile

    et c’est pas clair pour ta petite tête ? toi, tu lis les phrases de manière totalement séparés, sans cohérence entre elles !

    Vas y l’expert des experts, explique moi donc où t’as déjà vu un chef accepter qu’un soldat et donc à plus forte raison une machine fasse le contraire de ce qu’il veut. Il lui fixe un objectif, mais il peut lui laisser le choix de décider du moyen pour l’atteindre, de la tactique, dès l’instant où il accomplit sa mission. Par contre, selon toi, l’IA pourrait décider de faire autre chose, car c’est la seule manière d’expliquer le fait que tu conteste ce que j’écris.

    Explique moi cela que je rigole !



  • vote
    herve_hum 18 juin 2024 20:48

    @nono le simplet

    mais oui, t’as raison nono, les dirigeants occidentaux respectent le droit international mieux que les russes !

    Parce que au cas où t’aurai pas compris, la notion de crime de guerre n’a de sens que par rapport au droit international, sans cela, cela n’existe pas en dehors de ton imaginaire.

    Et au cas ou t’aurai pas remarqué, les dirigeants occidentaux (comme les autres) respectent le droit international que dans une condition, si cela sert leur intérêt, dans tous les autres cas, ils en ont rien à foutre.

    Bref, ils récompensent tout autant les actes de crimes de guerres que les russes selon qu’ils considèrent ou non le droit international.



  • vote
    herve_hum 18 juin 2024 20:36

    @pemile

    Toujours de mauvaise foi, ne lisant de l’autre que ce qui nourrit son propre discours et ignorant le reste. C’est à dire, ce qui est écrit juste avant et qui répond à ce que tu écris non pour débattre, mais juste par contradiction et peu importe la bêtise.

    ainsi, j’écris juste avant "Bref, qu’elle décide d’elle même pour obéir avec le plus de zèle, pas de problème

    "



  • vote
    herve_hum 18 juin 2024 13:21

    @pemile

    Si, et heureusement !

    C’est bien mal connaître le principe d’obéissance !

    Un militaire qui désobéit le conduit directement en cour martiale, alors que s’il obéit, même pour commettre des atrocités, il risque rien. Ceci parce que le principe d’obéissance est la clef de voûte de toute armée qui se respecte.

    Bon, le principe est évidemment moins rigoureux avec un ouvrier civil !

    pour le reste, on ne sera pas d’accord de toute évidence et cela à guère d’importance.

    De mon point de vue, il ne s’agit pas de savoir si le programmeur connaît très exactement ce que va faire l’IA, surtout en raison de la complexité dû essentiellement aux données particulières à traiter, mais le fait qu’elle se contente d’appliquer les directives données par le programmeur. Dans le cas contraire, la programmation de l’IA doit être totalement revue et corrigée.

    Tout comme il est absurde de croire un seul instant que les militaires ou toute personne voulant détenir du pouvoir veut une IA qui décide d’elle même, alors qu’ils font tout pour réduire la liberté de penser des humains pour en obtenir une totale obéissance. Bref, qu’elle décide d’elle même pour obéir avec le plus de zèle, pas de problème, mais si elle émet de la résistance en raison d’un ordre éthique qui agit à la source, alors, toute personne qui veut exercer sa domination s’empressera illico de supprimer cet ordre éthique.



  • vote
    herve_hum 18 juin 2024 10:30

    @pemile

    mais de quelle erreur tu parles !!?

    Si le robot ne détecte aucune donnée auquel son programme lui ordonne de réagir, il restera au repos, mais on voit bien qu’il y a intrication entre le programme et les données. C’est tellement évident que je ne vois pas le sens de débattre là dessus.

    Mais sans programme, une IA est vide et ne saurait utiliser des données et sans données, un programmes fondée sur la réaction à son environnement ne saurait s’activer. Pour l’activer, on va donc lui donner l’ordre de chercher les données qui lui permettent d’accomplir sa tâche.

    Pour le robot tueur, chercher des cibles, mais si on lui dit par exemple qu’il doit absolument trouver une cible par heure, c’est son ordre prioritaire et bien il risque de les inventer en tuant une cible non prévu.



  • vote
    herve_hum 18 juin 2024 10:22

    @pemile

    l’exemple est dans ta réponse qui suit !

    Je maintient que la machine fait exactement ce que le programmeur lui dit de faire, quand bien même ce dernier ne maîtrise pas les conséquences du programme en raison des particularités des données qu’il ne connaît pas à l’avance.

    Ainsi, tant que le résultat final ne sera pas cohérent avec celui voulu, alors, le programmeur devra revoir sa copie.

    La fonction d’un outil n’est pas de décider selon le principe du libre arbitre qui implique une conscience, donc, du sens de l’action, mais de décider en respect, obéissance du libre arbitre de son utilisateur.

    De la même manière qu’un ouvrier ou un militaire dans l’exercice de ses fonctions n’a pas à décider de ce qui est bon ou mauvais, mais seulement d’obéir aux ordres et s’il décide de désobéir, alors, il cesse d’être un outil pour faire valoir sa nature d’être humain. Mais cela n’a pas de sens pour une IA, sauf s’il y a un virus caché ou une intervention par un être agissant à la source.



  • vote
    herve_hum 18 juin 2024 10:12

    @pemile

    Mais aucun humain, à la lecture du code (si simple), ne peut prédire ce comportement émergeant 

    Ce qu’on ne peut pas faire, c’est écrire une formule simple qui donne l’emplacement de la fourmi à chaque instant, car cela prendrait infiniment plus de place que de suivre le chemin sur le plateau. C’est le changement de couleur qui rend impossible à donner une formule simple, car si on supprime le changement de couleur, alors, le programme conduit la fourmi à tourner en rond et cela n’aurait pas d’intérêt.

    mais l’émergence est une illusion dû à la complexité introduite par le changement de couleur du plateau.

    Ce sont les des notions élémentaires, rien de compliqué (je serai pas assez intelligent !).

    Un réseau de neurones n’est pas un programme !


    Disons qu’un réseau de neurones a de sens que s’il est excité pour atteindre un objectif, sans cela, il est au repos !

    Donc, on peut soutenir qu’un réseau de neurones est toujours activé par un programme, celui-ci pouvant évoluer voir être changé selon les objectifs du programmeur.

    Après, il y a des différences selon l’échelle ou le domaine.



  • vote
    herve_hum 18 juin 2024 09:56

    @pemile

    a trop vouloir me contredire tu écris des conneries sans t’en rendre compte.

    en effet, où vois tu que dans la phrase que tu recopie il est écrit qu’il ne s’agit pas de données ?

    je te parle du résultat attendu de l’outil, pas du fait que l’IA se nourrit de données.

    toute la difficulté étant que les données collectées et leur traitement permettent à l’IA d’accomplir la tâche pour laquelle elle est prévu, si comme tu l’écris à la fin cela part en sucette, c’est qu’il y a encore des biais à corriger, enfin, autant que possible.

    Une voiture autonome qui provoque un accident, cela veut dire que le programme est encore trop perfectible.

    On sait juste qu’une IA apprend mieux par auto apprentissage plutôt que la saturer d’une base de données dès le départ. Ceci, parce qu’elle classera les données de manières bien plus efficace.

     



  • vote
    herve_hum 18 juin 2024 09:44

    @charclot

    un robot, c’est une machine et il suivra les 3 lois d’Assimov que si c’est dans son programme, sans cela, il peut suivre des lois contraires. Ce que j’affirme, c’est qu’un robot fera toujours ce qui est écrit dans son programme, mais en aucun cas cela veut dire que le programme soit bon ou mauvais, qu’il comporte ou non des garde fous, que cela interdit d’introduire des virus dedans, ni même qu’on maîtrise le programme dans son développement lorsqu’il contient un fort niveau d’auto apprentissage et qu’aucun ordre premier n’a été clairement définie.

    Il y a l’exemple fameux de la fourmi de Langton où il n’y a pas d’émergence sinon l’illusion, car la fourmi se contente juste d’obéir strictement au programme et rien d’autre. l’inconnu étant dans le fait qu’il n’y a pas de formule pouvant déterminer l’emplacement exact de la fourmi à un moment quelconque et qui oblige à suivre le mouvement, mais pas à le prévoir. L’émergence est une illusion.

    Selon le mode de pensé que je suit, un principe est fondamentalement (dans ses conditions d’existences) invariant, quelle que soit l’échelle ou le domaine ou donc le niveau d’évolution technique auquel on l’applique, seule sa forme change et d’autant plus radicalement qu’on change d’échelle ou de domaine. Mais cela veut bien dire qu’une IA en tant que machine, reste fondamentalement un outil dont l’usage dépend de celui qui en a le contrôle et si la machine ne fait pas ce qu’il attend d’elle, alors, soit il corrigera la malfonction, soit il la mettra à la casse.

    Donc, dire que l’IA est un ennemi est aussi absurde que de dire qu’un marteau est un ennemi, seul celui qui le tient peut être ton ennemi ou ton ami, mais en aucune manière un outil.

    C’est un sacré tout de force pour l’élite prédatrice que d’avoir réussi à faire confondre l’outil avec la main qui le tient, tel que l’Etat, ou une multinationale, ou une bourse de valeur, ou un portable, ou une IA, sont des outils et seulement des outils et voir en eux des êtres est totalement absurde et relève de la psychiatrie collective.

    Bref, ce n’est pas parce qu’un mensonge est répété des millions de fois que cela en fait une vérité, cela restera toujours un mensonge, sauf pour les faibles d’esprits et malheureusement ceux qui prétendent être des esprits éclairés sont les plus faibles, puisqu’ils rapportent les mêmes mensonges comme de dire qu’une entreprisse est une personne juridique. C’est vrai dans l’imaginaire car dans ce dernier le principe de causalité est secondaire, on peut en faire ce qu’on veut, mais dans la réalité physique une entreprise ou un Etat ou une IA seront toujours que des outils où la conscience sera toujours celle d’un être, car le propre de l’être est de donner sens à son existence, et le propre de l’outil lui donner les moyens de donner sens à son existence. Sans moyen, on ne peut pas atteindre un but, quel qu’il soit, mais cela veut dire qu’un moyen n’est jamais une finalité, c’est le propre de l’être et lui seul.

    C’est de la logique élémentaire, de la tautologie indépassable et qu’aucune expérience de physique quantique ou autre peut violer fondamentalement, mais seulement le vérifier encore et encore....

    Bref, l’IA comme gestionnaire de l’économie est sans doute la meilleure solution si et seulement si son programme est totalement ouvert et n’admet aucun programme secret et a pour base le principe de mérite personnel qui interdit son appropriation exploitation par autrui et abolit donc la propriété privé au delà de soi même. Mais c’est totalement contradictoire avec ce que veut l’élite prédatrice qui domine la société humaine. Pour cette dernière il faut maintenir la division des citoyens en classes antagonistes et c’est le cadre indépassable de la nation où l’empire est son excroissance ultime et qui nécessite donc qu’il y ait au moins deux empires se faisant face, car l’état d’urgence est le seule argument qui justifie la domination d’une élite prédatrice sur le reste de la population à majorité de nature protectrice.

    Etc...

    pour finir, si l’IA tout comme l’humain se doit de hiérarchiser les ordres, c’est uniquement en raison du principe de causalité qui veut qu’on ne peut pas avoir une chose et son contraire dans le même espace-temps, qui se traduit par le choix entre 0 et 1. Aucune expérience quantique viole ce principe de réalité, seul l’imaginaire laisse croire le contraire et dérive là où son imagination le porte,

    La réalité c’est le lieu commun de tous les imaginaires, sans lequel chacun serait confiné dans son seul imaginaire sans pouvoir communiquer avec celui d’autrui.

    répondre à une simple question suffit normalement à s’en rendre compte, c’est à dire, s’il est possible de tout imaginer à partir de la réalité, peut on faire de même en partant de l’imaginaire pur, donc, sans principe de causalité à suivre ?

    répond à cette question et comprend la réponse et tu comprendra la raison d’être de l’Univers physique ou réalité.



  • vote
    herve_hum 18 juin 2024 09:05

    @Ouam

    j’ai déjà regardé le gars de DME, un manipulateur comme il y en trop.

    je ne sais pas qui sont ces émeutiers "d’extrême gauche", mais les actions de vandalismes sous faux drapeaux sont un cas d’école où seuls les crétins gobent tout d’un trait.

    Le principe de la manipulation reposant fondamentalement sur l’amalgame, la confusion.

    Perso, étant anti nationaliste parce que la nation est uniquement un moyen de manipulation des peuples et pour l’élite d’obtenir la soumission volontaire pour aller se faire trouer la peau sur leur ordre et en plus de s’assurer de leur zèle, je vois que tu fais partie de ceux là.

    Car en dehors de faire peur à l’électeur paisible et l’inviter à voter pour ses opposants, je ne vois pas l’intérêt de telles actions violentes.

    Donc, il y a d’un coté des gens qui défilent et de l’autre, les casseurs et toi, tu revendique le fait d’être un crétin et fier de l’être, parce que tu es bien accompagné :



  • vote
    herve_hum 18 juin 2024 08:44

    @pemile

    Bon, je vais te l’écrire autrement, une machine quelle que soit son niveau de complexité à une seule et unique fonction, accomplir la tâche pour laquelle elle est prévu par l’être qui est le seul à pouvoir lui donner sens. Que ce soit pour faire du café ou pour tuer des gens telle l’IA. Que ce soit un être humain réduit à la fonction machine ou la machine élevé à l’intelligence humaine. La seule chose que la machine ne pouvant acquérir étant la conscience, mais dont le niveau d’intelligence peut le laisser croire de la même manière qu’une poupée laisse à penser à l’enfant qu’elle est un être vivant. différence d’échelle, mais invariance du principe. Cette loi étant indépassable dans la réalité physique, mais libre dans l’imaginaire.

    Bref, le résultat de l’IA doit toujours être analysable en vérifiant simplement qu’elle accomplit la tâche qui lui est demandée. Ainsi, l’IA doit être capable de distinguer un allié d’un ennemi à abattre !

    Pour ton lien, il semblerait que c’est ici qu’entre en jeu l’application du principe de fractalisation....



  • vote
    herve_hum 17 juin 2024 21:07

    @pemile

    Non, le résultat de sortie d’une IA n’est pas un chemin réversible analysable, et cette IA tueuse se sert d’une caméra pour choisir sa cible.

    j’ai déjà répondu en écrivant

    Seule la complexité du programme avec le principe d’itération (dont il faut encore considérer celui de fractalisation pour aller plus loin), augmenté s’il y a des ordres contradictoires, peut provoquer une action non prévu, parce que l’IA a toujours besoin de hiérarchiser les ordres, c’est une nécessité physique indépassable

    Bon, je suppose que tu sais ce qu’est une itération !

    pour finir, ce que tu écris est absurde, en effet, si le résultat de l’IA tueuse n’est pas analysable, cela veut dire qu’elle tue au hasard, donc, quelle peut tuer un enfant, une femme enceinte ou un vieillard avec autant de probabilité que de tuer un terroriste.

    C’est totalement absurde et contraire au but visé. Et a pour seule conséquence, de revoir la copie du programme de l’IA. Sauf si le but est effectivement de tuer sans distinction si ce n’est par exemple de se trouver au mauvais endroit.

    je n’ai jamais étudié comment est programmé l’IA, mais connaissant le principe de causalité dans ses fondements, je sais pertinemment que cela repose sur ce qui fait la réalité physique, c’est à dire, le principe de récurrence (définition de l’ordre premier, directeur qu’une IA doit absolument déterminer) et l’itération et dont je ne sais pas ce qu’il en est du troisième principe fondamental qu’est la fractale.

    Mais encore une fois, une IA tout comme n’importe quelle machine qui ne fait pas ce qu’on attend d’elle est une machine à corriger ou à mettre à la casse. Maintenant, si tu aime une machine qui fait le contraire de ce que tu veux, ben, c’est que t’as atteint l’état de sénilité !



  • vote
    herve_hum 17 juin 2024 19:09

    @pemile

    Non, l’IA obéit strictement au programme, elle ne "choisit" pas sa cible au sens propre du terme, mais en fonction de son programme

    En aucune manière elle prend le dessus, même quand il s’agit d’une erreur de programmation, l’humain est toujours la source et encore une fois, une machine qui ne fait pas ce qu’on lui demande est une machine avec une malfonction à corriger.

    Seule la complexité du programme avec le principe d’itération (dont il faut encore considérer celui de fractalisation pour aller plus loin), augmenté s’il y a des ordres contradictoires, peut provoquer une action non prévu, parce que l’IA a toujours besoin de hiérarchiser les ordres, c’est une nécessité physique indépassable.



  • vote
    herve_hum 17 juin 2024 18:53

    @charclot
     

    Mais tu peux faire autant de digression que tu veux, cela ne changera rien dans la réalité, mais dans ton imaginaire certainement.

    Or, pour un être avertit, il s’agit avant tout de contrôler les imaginaires des gens pour pouvoir leur faire prendre des vessies pour des lanternes et cela fonctionne très bien depuis quelques millénaires et tant que les gens persisteront à confondre l’outil et la main qui le tient.

    La machine ne peut pas prendre le dessus sur l’être, seul ce dernier peut se placer en dessous d’elle et on appelle cela le fétichisme, ou comme outil pour imposer sa domination à autrui et on appelle cela l’asservissement. Fondamentalement, une machine ne peut pas donner sens à sa propre existence en dehors de sa propre utilité et qui a de sens que vis à vis de l’être.

    Les militaires font des expériences avec l’IA et la seule chose qu’ils trouvent et semblent s’’en étonner, réside dans le fait que l’IA à toujours besoin de hiérarchiser les ordres, donc, de définir l’ordre premier ,directeur face auquel tous les autres ordres vont devoir se soumettre.

    Je vais juste te poser une question bête, que fais tu si tu as une machine qui ne fait pas ce que tu veux d’elle ? Tu lui dit bravo ou bien tu considère qu’elle ne fonctionne pas bien, voir qu’elle est bonne pour la casse ?

    Encore et toujours, aucun outil est bon ou mauvais en soi, seul celui qui en fais usage l’est.

    Bref, le problème n’est pas l’IA qui contrôle la population par exemple, mais de savoir qui en a le contrôle et à quelle fin. Par bienveillance ou malveillance ?

    Mais bon, continuez donc à croire que l’Etat, une multinaitonale, une IA, ce sont des êtres contre lesquels il faut se battre, pendant ce temps là, vous laissez une paix royale à ceux qui en ont le contrôle et surtout, leur permettez de continuer à vous manipuler comme ils veulent.

    Bref, continuez à jouer les idiots utiles surtout en prétendant vous opposer à des gens dont vous ne voyez que le marteau.