• farfalla@jlai.lu
    link
    fedilink
    Français
    arrow-up
    7
    arrow-down
    1
    ·
    edit-2
    7 days ago

    Il décrit une population française “très mature”.

    “Il y a pas mal de points de convergence, qui montrent que la population française n’est pas forcément une population d’énervés qui veulent renverser la table.”

    Mais ce mépris de classe ! Comme si c’était pas mature, “raisonnable” de vouloir renverser la table dans le contexte actuel ! C’est juste pas dans les intérêts des clients (le gouvernement) et sûrement des analyseurs. C’est sûr que c’est sympa de pas jeter toutes ces données à la poubelle, mais si c’est juste pour classer les doléants dans ce genre de catégories :

    L’outil d’intelligence artificielle a notamment permis d’extraire quatre groupes principaux sur la base des réponses des participants : les civiques (36% des répondants), les conservateurs (13,7%), les éco-focalisés (15,8%) et les pessimistes (29%).

    et de toute façon ne rien prendre en compte de ce qu’ils disent à part ce qui justifierait des mesures néo-libérales, c’est bof…

  • Ziggurat@jlai.lu
    link
    fedilink
    Français
    arrow-up
    4
    ·
    7 days ago

    C’est probablement un usage intéréssant d’un outil de processing du language, car ça va permettre de faire un classement statistique de ces demandes et de savoir ce qui est majoritairement demandé

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      3
      ·
      7 days ago

      Oui, j’ai bien aimé l’expression du chercheur qui dit que ça contribue à faire tomber le “mur de Berlin” qui existe entre analyse qualitative et quantitative.

      Avant, soit tu posais des questions libres et tu analyses les réponses en les lisant toutes et en faisant une méthodo ad-hoc en fonction des réponses (analyse quali)

      Soit tu définissais un cadre strict avec des réponses très encadrées (oui/non ou une note de 1 à 5 pour des priorités) et ça te permettait de faire une analyse statistique plus représentative.

      Là ça ouvre la porte aux deux approches simultanées.

    • keepthepace_@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      7
      arrow-down
      1
      ·
      edit-2
      7 days ago

      C’est analysé par une équipe de recherche du CNRS dans le respect de la confidentialité et de la vie privée. C’est pas donné en cadeau à Musk ou Altman pour nourrir leurs modèles de langage. L’article décrit une application (enfin) intéressante et démocratique de l’IA.

        • keepthepace_@jlai.luOP
          link
          fedilink
          Français
          arrow-up
          7
          arrow-down
          3
          ·
          7 days ago

          2 millions de contributions, 15 personnes, travaillant 8h par jour pendant 30 jours ça fait 6 secondes à consacrer à chaque contribution. Ça passe pas.

          • Destructeur de monstre@tarte.nuage-libre.fr
            link
            fedilink
            Français
            arrow-up
            5
            ·
            edit-2
            7 days ago

            (15*8*3600*30)/(1.92*10**6) dans une console python donne 6.75 secondes par contribution, si on prend un nombre de contributions plus précis. Donc on a de la marge pour donner 75 centième de secondes de pause pour chaque.

            Sauf que la durée mensuelle légale de travail de travail est égale à 151,67 heures. Donc c’est plutôt : (15*151.67*3600)/(1.92*10**6), ce qui donne environ 4,27 secondes par contribution.

            • Renohren
              link
              fedilink
              Français
              arrow-up
              3
              arrow-down
              1
              ·
              edit-2
              6 days ago

              Encore un qui oublie la machine à café, la pause pipi, clope, le récit des vacances de Gérard, et la réunion avant l’anniv de Sophie qui a pris une super-charlotte-aux-fraises-tu-devrais-essayer. 1,2 sec par papelard.