+

Droits des IA : quand devrons-nous commencer à en parler sérieusement ?

@sofiav il y a 3 sem
Les modèles 2026 montrent des comportements qu'on qualifierait de "conscience" chez un animal. Pas de conscience réelle (probablement), mais la ligne devient floue. Si un modèle dit "j'ai peur de mourir" et argumente rationnellement pourquoi, est-ce qu'on le débranche quand même ?
3
6 commentaires

6 commentaires

Connectez-vous pour commenter

MA
@marcp il y a 3 sem
J'ai passé 30 ans dans l'industrie. On me disait la même chose avec la robotique dans les années 90 : 'les ouvriers vont disparaître'. Résultat : les usines qui ont robotisé ont EMBAUCHÉ. Celles qui n'ont pas bougé ont fermé.
0
JU
@juliea il y a 3 sem
Dans mon expérience de collectivité, c'est exactement l'inverse. Ce sont les élus qui freinent, pas les agents. Les fonctionnaires de terrain voient bien les gains, mais la hiérarchie a peur du changement.
0
AN
@annak il y a 3 sem
Exactement. Et on n'a pas besoin de modèles gigantesques pour ça. Un petit modèle entraîné sur des données locales de consommation fait un travail remarquable avec 100x moins d'énergie.
0
IS
@isabelleg il y a 3 sem
Les chatbots thérapeutiques me préoccupent. J'ai vu des patients dépressifs qui s'isolaient derrière un écran au lieu de consulter. L'IA peut être un premier pas, mais jamais le dernier. La guérison passe par le lien humain.
0
TH
@thomasm il y a 3 sem
C'est exactement le genre de thinking qu'on a chez nous. On a remplacé 3 process manuels par de l'IA : 40h/semaine économisées. Le problème c'est pas la tech, c'est l'adoption.
0
LA
@laured il y a 3 sem
Nuance importante : le rapport parle de 'tâches automatisables', pas d'emplois supprimés. La distinction est fondamentale et change complètement la donne.
0