CSU a parié 17 millions de dollars sur l’IA. Les étudiants, les professeurs recevront une attestation d’admission

L’effort de 17 millions de dollars de l’Université d’État de Californie pour fournir ChatGPT sur chacun de ses campus a rencontré des résultats mitigés, avec une utilisation répandue mais incohérente dans l’ensemble du système, une méfiance généralisée à l’égard du contenu généré par l’IA et une crainte généralisée que la technologie puisse mettre en péril la sécurité de l’emploi – même si les gens disent vouloir se former dans des systèmes qu’ils jugent « essentiels » à leur carrière.

Ces sentiments font partie des conclusions de la plus grande étude sur l’intelligence artificielle dans l’enseignement supérieur à ce jour, qui a interrogé 94 000 étudiants, professeurs et membres du personnel sur 22 campus de la CSU, de San Diego à Arcata.

L’étude, menée par des chercheurs de l’Université d’État de San Diego l’automne dernier, montre que la CSU exerce une forte influence de l’IA sur l’emploi, l’apprentissage en classe, la concurrence pour les emplois et l’intégrité académique. Il a été constaté que presque tous les répondants ont utilisé l’IA à un moment donné, et l’ont utilisée plus à des fins personnelles qu’à des fins éducatives.

Les employés sont les plus passionnés par la technologie, suivis par les étudiants et les professeurs – le groupe le plus divisé, selon les résultats d’une enquête publiée mercredi. La plupart d’entre eux ont également déclaré qu’ils pensaient que l’IA pouvait stimuler la créativité et l’innovation.

Dans un communiqué, la chancelière de la CSU, Mildred García, a déclaré qu’elle considérait les résultats comme “non seulement une indication des attitudes actuelles”, mais “un appel à l’action”.

“La CSU a l’opportunité de diriger l’enseignement supérieur en façonnant la manière dont l’IA peut être utilisée de manière réfléchie, équitable et responsable”, a-t-il déclaré. “Et nous répondrons à cet appel.”

L’IA dans la croix

Les nouvelles données du CSU arrivent à un moment critique pour l’IA dans l’éducation.

Le contrat de 18 mois de l’université avec OpenAI pour la licence de son chatbot ChatGPT pour 460 000 étudiants et 63 000 professeurs et employés expire en juillet. Une pétition avec plus de 3 300 signatures – dont plus de la moitié sont des étudiants, du personnel ou des professeurs de la CSU – circule pour appeler à la fin du partenariat.

Dans le même temps, d’autres universités se joignent à la tendance. En décembre, l’USC a annoncé qu’elle proposerait ChatGPT à ses 80 000 étudiants, membres du personnel et du corps professoral pour un coût annuel de 3,1 millions de dollars. Certains campus, dont Caltech, utilisent des outils d’IA pour sélectionner les candidats.

Un porte-parole de la CSU n’a pas précisé si les administrateurs mettraient à jour leurs services ChatGPT.

“Nous étudions tous les aspects de la manière dont la CSU peut continuer à fournir aux étudiants, aux professeurs et au personnel des outils, des ressources et des formations en matière d’IA”, a déclaré le porte-parole.

L’enquête a révélé que même si les opinions sur l’IA varient, plus de 70 % des enseignants souhaitent une formation formelle, et la moitié des étudiants le souhaitent.

Comment les étudiants utilisent l’IA

L’étude du CSU n’était pas spécifique à ChatGPT, mais a révélé qu’il s’agissait de l’outil d’IA le plus populaire. Plus de 84 % des étudiants, du personnel et des professeurs ont déclaré qu’ils l’utiliseraient dans une certaine mesure. D’autres comme Gemini et Canva occupent une place élevée, mais l’outil d’écriture de Grammarly est le deuxième plus populaire parmi les étudiants.

Pour ceux qui ont cité ChatGPT comme un outil important, environ 30 % des étudiants et 40 % des employés ont déclaré l’utiliser quotidiennement. Environ les deux tiers des étudiants et du personnel, ainsi que plus de la moitié des enseignants, ont déclaré utiliser ce temps chaque semaine.

Une majorité d’étudiants (80 %) déclarent qu’ils n’utiliseraient pas l’IA pour automatiser le travail en classe. Environ 9 étudiants sur 10 ont déclaré qu’ils pensaient qu’il était « juste » que les humains vérifient l’exactitude du contenu généré par l’IA. Le personnel et les professeurs présentaient des taux plus élevés de ce type.

Landon Block, étudiant en sciences politiques à Cal Poly San Luis Obispo, a déclaré que l’utilisation de l’IA est « limitée » pour un certain nombre de raisons, notamment « le potentiel d’impact environnemental, les effets régionaux des centres de données à travers le pays, les problèmes éthiques liés à la formation et à la distribution, et le manque/développement de compétences clés ».

Block, qui n’a pas participé à l’enquête, a déclaré qu’il n’avait utilisé qu’une seule fois son compte ChatGPT partagé par l’université.

“Cependant, j’ai de nombreux amis dans des cours à forte composante STEM qui utilisent l’IA tout le temps, mais de manière responsable, pour les aider à identifier et à mettre en œuvre le matériel de classe. J’ai également vu des camarades de classe qui utilisent l’IA pour tricher ou tricher ou pour se déplacer au travail”, a-t-il déclaré.

Katie Karroum, une diplômée de Cal State Northridge spécialisée en études de communication, a déclaré que l’IA “n’est plus la même utilisation et la même application”. Comme le suggèrent les résultats de la recherche, il a été constaté qu’il existe une différence dans la manière dont les membres des facultés parlent de l’utilisation de l’IA dans les programmes, encourageant ou limitant l’IA dans les cours.

“Une chose que j’entends souvent de la part des étudiants, c’est leurs difficultés avec les lecteurs IA et comment ils peuvent être si faux”, a déclaré Karroum, vice-président des affaires systèmes pour la Cal State Student Assn., qui a publié cette année un livre blanc sur les efforts de la CSU en matière d’IA.

Divisions d’enseignants

Les travailleurs – les travailleurs non universitaires comme ceux de la finance, des technologies de l’information, des emplois professionnels et de la restauration – voient l’IA d’un bon œil, avec plus de 70 % d’entre eux déclarant que la technologie est « bonne » dans leur travail. Environ 64 % des étudiants ont déclaré qu’ils pensaient qu’il en était de même pour leurs études.

Les membres du corps professoral sont plus divisés. Selon l’enquête, « 56 % signalent un impact positif sur leur enseignement et leur recherche, et 52 % signalent un impact négatif. Les universités sont le seul groupe de l’enquête qui rapporte souvent les deux ».

Cependant, plus de la moitié des enseignants, soit 55 %, déclarent utiliser l’IA pour développer du matériel pédagogique.

Martha Lincoln, professeure agrégée d’anthropologie à l’État de San Francisco, fait partie des opposants à l’IA. Lincoln – avec Martha Kenney, professeur au Département des femmes et du genre de l’université – sont à l’origine d’une pétition appelant la CSU à « investir dans les gens » et à « nier la conspiration de l’IA de la Silicon Valley ».

“La façon dont je rencontre l’IA est que je consacre désormais mes cours à m’assurer auprès de mes élèves qu’ils ne sont pas autorisés à utiliser l’IA dans leurs devoirs”, a déclaré Lincoln. “Je dois lire les travaux de mes étudiants pour voir si je comprends les signes de l’utilisation de l’IA, qui est une façon très frustrante et inutile de passer du temps.”

Lincoln a déclaré qu’il avait « restructuré bon nombre de mes devoirs et évaluations afin qu’ils ne soient pas facilement piratés par l’utilisation de l’IA », comme le travail en classe, les tests à choix multiples ou les projets de présentation créatifs.

Zach Justus, directeur du développement du corps professoral à Chico State, a déclaré avoir entendu des sentiments similaires parmi les 900 membres du corps professoral avec lesquels il travaille, mais qu’il en a également vu beaucoup qui sont enthousiasmés par l’IA.

“Nous avons encore des gens qui veulent dire que cela n’existe pas. Nous avons encore des gens qui s’adaptent et font des choses incroyables en temps réel. Nous avons encore des gens qui aiment rester en dehors de leurs salles de classe”, a déclaré Justus. “Je dis toujours aux entraîneurs : ‘N’abandonnez pas ce que vous aimez.’ Si vous aimez lire puis créer une image pour un article difficile, eh bien, faites-le. Mais si c’est quelque chose que vous détestez faire et que vous ne l’aimez pas, vous pouvez obtenir de l’aide pour cela.

Ces problèmes font partie de ceux explorés par Taiyo Inoue et Sarah Senk, professeurs à la Cal Poly Maritime Academy, dans le podcast « My Robot Teacher », qu’ils ont lancé l’année dernière.

“Nous voulions qu’un espace dirigé par des enseignants soit plus que de simples informations critiques ou négatives”, a déclaré Senk, professeur de littérature dont le projet a été financé par le California Education Learning Lab et a examiné “comment l’IA peut pousser l’enseignement supérieur vers de meilleurs styles d’apprentissage que nous n’avons jamais imaginés”.

“La grande question pour moi est de savoir comment apprendre aux étudiants à prendre le contrôle de leurs propres pensées, sentiments et opinions dans une société qui les traite de plus en plus comme des ressources d’extraction”, a déclaré Senk. “Au cours des 20 dernières années, il est devenu de plus en plus facile de partager vos idées. Les entreprises rivalisent pour attirer l’attention, les médias se disputent vos yeux, et maintenant l’IA va combler le fossé des connaissances. L’enseignement supérieur est l’un des rares endroits qui a encore la capacité d’aider les étudiants à garder leur esprit.”

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui