Details
Nothing to say, yet
Big christmas sale
Premium Access 35% OFF
Details
Nothing to say, yet
Comment
Nothing to say, yet
In this episode of Vera Veritable, they discuss the use of AI to help with mental health in schools. They talk about how AI can detect emotions in phone conversations and help make better decisions for those struggling with suicidal thoughts. They also discuss using AI for diagnosing anxiety and depression, which could be more convenient for students. However, there are concerns about the accuracy of AI diagnoses and the ethical and privacy implications. It is important to carefully consider the effectiveness and costs before implementing AI in schools. Bonjour tout le monde, bienvenue au épisode 3 de Vera Veritable. Aujourd'hui, on va parler de l'IA et comment on peut l'utiliser pour aider le sentimentale dans notre école. Dans ce balado, on va parler de plusieurs fonctions de l'IA dans le sentimentale, comment ça peut aider et les conséquences légales de sécurité. Alors, aujourd'hui, je suis avec mon amie Roberta. Bonjour Roberta. Bonjour Vera. Alors, pour commencer, dans le premier article que j'ai lu, il y a une citation d'Easy Radio pour comprendre l'idée de ce système particulier de l'IA. Alors, ça dit, l'idée de détecter les émotions à partir de la parole des personnes qui appellent régulièrement les centres d'appel de soutien aux raisons d'idées suicidaires. Alors, surtout moi, c'est juste quand une personne appelle ou tu as une conversation avec une personne, l'IA peut aider à détecter les émotions et ça aide à faire une meilleure décision pour la personne qui parle à la personne qui a des pensées suicidaires. Alors, je pense qu'une façon qu'on peut utiliser, c'est pour les élèves. Si on a une façon de fournir ce système à des élèves en école, ça pourrait être un bon outil pour les élèves qui parlent à des amiciades des pensées suicidaires. Alors, comme étudiant, est-ce que tu penses que ça pourrait être un bon outil pour toi? Moi, je pense que ça serait un très bon outil parce que je trouve que des fois, j'ai beaucoup de difficultés à m'exprimer, soit que je sois avec mon ami ou que je sois avec un adulte auquel je confie. Je trouve que c'est difficile pour moi à exprimer mes émotions et mes idées, ce que je veux dire. Alors, si un IA peut détecter mes émotions, je trouve que ça sera plus facile pour tout le monde de me comprendre et pour pouvoir m'aider à mettre en place ces capacités. Oui, c'est une très bonne réponse. Je suis très d'accord avec ça, comme une élève. Alors, je pense que ça pourrait être très utile pour des personnels au centre de santé parce qu'ils sont aussi responsables pour toute la santé mentale à notre école. Alors, s'il y a un autre outil qu'il peut utiliser pour aider les étudiants, je pense que ça serait très bon aussi. Et un autre avantage de ce système en particulier, c'est qu'il peut faire des statistiques sur les personnes et on peut connaître les émotions qu'il détecte et on peut regarder et voir les choses qu'on fait bien. Et les choses qu'on doit améliorer. Alors, dans le deuxième article que je lis, il dit qu'on peut utiliser l'IA pour faire des diagnostics. Alors, l'Agence des médicaments du Canada dit qu'on peut utiliser l'IA pour diagnostiquer l'anxiété et la dépression. Maintenant, pour faire des diagnostics à l'école, c'est très difficile parce qu'on doit aller à la clinique, on doit prendre un taxi avec l'école et c'est tellement difficile de trouver le temps pour ça. Alors, ça peut être très efficace pour nous parce qu'on peut le faire à notre école. Oui, mais je pense qu'il y a aussi des points de vue sur s'il n'est pas correct avec le diagnostic. Alors, j'ai une question. Est-ce que tu penses que tu peux être confortable de faire un diagnostic avec l'IA? Dans un contexte, oui, parce que je trouve que des fois, l'IA est plus véritable que la personne. Des fois, l'IA peut détecter des émotions dans moi qu'une personne ne peut pas. Soit parce que je ne m'exprime pas bien avec mes parents et qu'elles ne comprennent pas. Soit que mes émotions, genre ma face, c'est quelque chose d'autre. Mais je ne serais pas aussi confortable que juste l'IA me diagnostique avec la dépression ou quoi que ce soit parce que des fois, comme j'ai dit, ma face peut révéler des émotions que ma voix ne peut pas. Puis si je dis quelque chose à l'IA, ça peut interpréter différemment pour toutes les personnes. Oui, je suis d'accord avec ça. Et juste une autre question. Qu'est-ce que tu penses de les concepts de l'IA comme avec les parents et l'école? Alors, je pense que, comme mes parents, je pense pas qu'ils seraient d'accord qu'un IA me diagnostique avec de la dépression parce que, essentiellement, ma mère ne trouve pas que l'IA est très efficace. Alors, je trouve que si l'école dit à ma mère que l'IA me diagnostique avec de la dépression, elle va rire dans ma face et elle ne va pas m'accroire. Alors, elle voudrait que je vais à un professionnel, à une clinique, puis qu'elle me diagnostique. Mais si je suis avec une personne qui me diagnostique, puis l'IA, en-dessus, dit que peut-être qu'elle est en dépression puis j'ai deux sources, alors ça va être un peu plus, genre, véritable. Oui, et ça c'est la réponse que j'accepte parce que je pense aussi que mes parents ont dit la même chose. Alors, dans le troisième article, ça dit que l'usage de l'IA dans la santé mentale n'est pas prometteur en long terme. Alors, la Commission de santé mentale au Canada dit qu'il y a plusieurs concernes, ethiquement et les concernes de confidentialité. Au sujet de LCS, ça doit être une grande décision si nous achetons la technologie de l'IA parce qu'on ne sait pas si ça va marcher pour notre école et ça peut être un grand gaspillage d'argent et de temps parce qu'on doit entraîner toutes les personnes à l'utiliser. Oui, alors, qu'est-ce que tu penses d'une bonne façon? Est-ce que tu penses qu'on doit prendre plus de temps? Je ne sais pas, je ne suis pas sûre, honnêtement. Je pense que l'IA pourrait certainement aider les personnes qui travaillent dans le secteur médical à diagnostiquer des choses. Des fois, les personnes ne sont pas très bonnes à recevoir et lire les mots des autres et les émotions. Je pense que l'IA pourrait être très utile à faire ce rôle de sécurité qui peut aider la personne en besoin. Mais quand même, ça coûte vraiment beaucoup. C'est un investissement très grand pour l'école. Je pense que l'école doit être certainement sûre que ça va aider pour l'acheter. Oui, alors, en conclusion, les pensées de moi et Roberta, je pense que c'est très similaire. Alors, il y a plusieurs avantages de l'IA. Comme c'est très efficace pour notre école, ça peut aider des élèves avec leurs amis s'ils ont des pensées suicidaires et ça, c'est comme tellement gros. Mais il y a plusieurs désavantages comme ça coûte beaucoup d'argent. On ne sait pas si ça va marcher et des contraintes légales et de confidentialité. Oui, alors, merci Roberta. Merci Véronique.