AMMnet Annual Meeting – 2025: Day 3
Friday, 27th June 2025
Published: 01/07/2025
This report is brought to you by the MESA Correspondents Awa Mariama Sene, Djiby Sow, Mamadou Samb Yade, and Serigne Ousmane Diaw. Senior editorial support has been facilitated by Khady Ndiaye and Manuela Runge.
THEMES: THEMES: Modeling
MESA Correspondents bring you cutting-edge coverage from the AMMnet Annual Meeting – 2025.
*English Version (Version française ci-dessous)
Small group discussion – AI in modeling: Balancing innovation with ethics
During this session, participants discussed the opportunities and challenges associated with the growing use of Artificial Intelligence (AI) in modeling. The discussion was structured around seven key questions:
1) What excites you most about the growing use of AI in modeling? (general Question):
Even before the small groups were formed, several people in the room shared what they found exciting about using AI. One modeling student explained that AI enables her to learn easier and faster, and that she discovers lots of things thanks to this tool. Others added that AI helps to explore different aspects of a subject, to go further in the analysis, and to save time. The general idea was that AI can really support learning, stimulate thinking and speed up work, while opening up new perspectives in modeling.
2) What potential risks or concerns do you see with the growing use of AI in modeling?
One of the groups raised an important point: AI always gives an answer, even when it doesn’t have enough information or isn’t sure. Unlike a human who can say “I don’t know”, AI doesn’t recognize its limitations. This can lead to false or misleading results, especially if it is fully trusted. The group stressed the need to keep a critical eye on the answers provided by AI, and always check data and results, as an AI can be wrong without ever saying so clearly.
3) Should modelers and policy makers fully trust results and decisions from AI models?
The group clearly answered: no, they should not fully trust AI. Several reasons were shared. First, there is the risk of bias in the data used by AI, which can lead to misleading results. Second, AI lacks flexibility; it follows rules, but doesn’t always adapt well to complex or unexpected real-life situations. Most importantly, when it comes to decisions that affect human lives, a machine should never act alone. There must always be human oversight to validate, interpret, and take responsibility for final decisions. The group agreed that while AI can support the process, it should not and cannot replace human judgment especially in public health.
4) What practical steps can we take to detect and reduce bias in AI-driven models?
The groups shared several useful ideas. First, it’s important to be clear about the objective before using AI. Knowing exactly what you want to do helps reduce confusion and errors. Then, learning how to formulate a proper query is key, because the way a question is asked can affect the results. The participants also highlighted the need to work with an expert, especially when choosing the right model and interpreting results. They pointed out that bias can come from the data, the context, or even the model itself so these must be reviewed carefully when choosing which AI model to use. Having a good validation strategy, and checking if the model fits the goal, is essential. Finally, one group mentioned that it helps to keep a record of the initial request or data input, so that it’s possible to review and trace the source of any bias later.
5) What does responsible or ethical use of AI look like in practice to your group?
The group discussed the core principles of ethical AI use, identifying key values such as transparency, accountability, fairness, and inclusiveness. They stressed that AI systems should always be used with human oversight, ensuring they are safe, beneficial, and aligned with public interest. A strong emphasis was placed on the confidentiality of collected data, especially in health-related contexts, where protecting people’s privacy is critical. The group agreed that AI tools must respect ethical standards, and their use should never harm or exclude anyone. They concluded that integrating AI responsibly means going beyond technical performance; it also requires clear rules, trusted systems, and inclusive practices that uphold human rights. Ethical use of AI, especially in public health, demands careful planning and thoughtful implementation at every stage of the decision-making process.
6) How can we make AI models more understandable and transparent to non-expert?
This group explored how to make AI models clearer and more accessible. They suggested using the “known–unknown” communication framework to explain what the model can and cannot predict. They also recommended applying the KISS principle (“Keep It Short and Simple”) to make messages easier to grasp, and simplifying complex symbols or technical terms used in model outputs. The group emphasized the importance of explaining model limitations, showing how the model fits the specific problem, and creating tailored communication strategies depending on the audience whether researchers, policymakers, or frontline health workers. Their discussion highlighted that clarity, audience adaptation, and good communication are key to building understanding and encouraging appropriate, critical use.
7) How can AI help lower barriers for people to access or learn modeling especially in underserved contexts or regions?
The group discussed how artificial intelligence can help democratize access to modeling. AI can offer step-by-step guidance, help generate new ideas, and summarize complex modeling concepts to make them easier to understand. It can also support users in exploring data, debugging code, and overcoming language barriers by translating or simplifying technical content. The group emphasized that this ability to make modeling tools more accessible is especially valuable for non-technical users and communities in underserved or low-resource settings. When thoughtfully integrated, AI has the potential to broaden participation and enable more people to engage with modeling processes. While AI alone cannot guarantee inclusivity or equity, its responsible use combined with supportive policies and human-centered implementation can contribute to making data-driven decision-making more open and responsive to diverse needs.
Closing remarks
In the closing remarks of the AMMnet 2025 Annual Meeting, Hannah Slater (PATH, USA), serving as the Chair of the AMMnet Board, expressed gratitude to the many teams and individuals who contributed to the success of the event. She acknowledged the speakers, planners, panelists, the Gates Foundation events team, and the SME Working Group planning team.
Special thanks were extended to the AMMnet Secretariat, Shannon Stanfill, Ida Sagbo, and Hifzah Malik (all from Northwestern University, USA), as well as the Senegal events team for their exceptional efforts behind the scenes.
Slater emphasized the importance of the AMMnet network and encouraged participants to share its work widely and provide feedback to improve future events. She also acknowledged the Gates Foundation for its financial support, which has been instrumental in enabling AMMnet’s growth.
She reserved her deepest thanks for the participants themselves, whose engagement made the meeting both meaningful and enriching. Tying back to this year’s theme, Slater underscored that data and analytics are more critical than ever in helping limited resources go further. She closed by reaffirming that AMMnet thrives through collective contribution, offering multiple ways to engage and welcoming all who are interested in applying quantitative tools to support policy and practice in malaria and other infectious diseases.
*Version en français
Discussion en petits groupes – L’IA dans la modélisation : trouver le juste équilibre entre innovation et éthique
Au cours de cette session, les participants ont discuté des opportunités et des défis liés à l’utilisation croissante de l’intelligence artificielle (IA) dans la modélisation. La discussion s’est articulée autour de sept questions clés :
1) Qu’est-ce qui vous enthousiasme le plus dans l’utilisation croissante de l’IA dans la modélisation ? (Question générale)
Avant même que les petits groupes ne soient formés, plusieurs personnes dans la salle ont fait part de ce qu’elles trouvaient passionnant dans l’utilisation de l’IA. Une étudiante en modélisation a expliqué que l’IA lui permet d’apprendre plus facilement, plus rapidement, et de découvrir beaucoup de choses grâce à cet outil. D’autres ont ajouté que l’IA permet d’explorer différents aspects d’un sujet, d’aller plus loin dans l’analyse et de gagner du temps. L’idée générale est que l’IA peut réellement soutenir l’apprentissage, stimuler la réflexion et accélérer le travail, tout en ouvrant de nouvelles perspectives dans le domaine de la modélisation.
2) Quels risques potentiels ou préoccupations voyez-vous dans l’utilisation croissante de l’IA dans la modélisation ?
L’un des groupes a soulevé un point important : l’IA fournit toujours une réponse, même lorsqu’elle ne dispose pas de suffisamment d’informations ou qu’elle n’est pas sûre. Contrairement à un humain qui peut dire « je ne sais pas », l’IA ne reconnaît pas ses limites. Cela peut conduire à des résultats erronés ou trompeurs, surtout si l’on fait entièrement confiance à l’IA. Le groupe a souligné la nécessité de garder un œil critique sur les réponses fournies par l’IA : il est essentiel de toujours vérifier les données et les résultats, car l’IA peut se tromper sans jamais l’indiquer clairement.
3) Les modélisateurs et les décideurs politiques doivent-ils faire entièrement confiance aux résultats et aux décisions des modèles d’IA ?
Le groupe a répondu clairement : non, ils ne devraient pas faire entièrement confiance à l’IA. Plusieurs raisons ont été évoquées. Premièrement, il existe un risque de biais dans les données utilisées par l’IA, ce qui peut conduire à des résultats trompeurs. Deuxièmement, l’IA manque de flexibilité ; elle suit des règles, mais ne s’adapte pas toujours bien à des situations complexes ou inattendues de la vie réelle. Plus important encore, lorsqu’il s’agit de décisions qui affectent des vies humaines, une machine ne devrait jamais agir seule. Il doit toujours y avoir une supervision humaine pour valider, interpréter et assumer la responsabilité des décisions finales. Le groupe a convenu que si l’IA peut soutenir le processus, elle ne doit ni ne peut remplacer le jugement humain, en particulier dans le domaine de la santé publique.
4) Quelles mesures pratiques pouvons-nous prendre pour détecter et réduire les biais dans les modèles pilotés par l’IA ?
Les groupes ont partagé plusieurs idées utiles. Tout d’abord, il est important de définir clairement l’objectif avant d’utiliser l’IA. Savoir exactement ce que l’on veut faire permet de réduire la confusion et les erreurs. Ensuite, il est essentiel d’apprendre à formuler une requête appropriée, car la manière dont une question est posée peut avoir un impact sur les résultats. Les participants ont également souligné la nécessité de travailler avec un expert, notamment pour choisir le bon modèle et interpréter les résultats. Ils ont noté que les biais peuvent provenir des données, du contexte, voire du modèle lui-même, et qu’il convient donc de les examiner attentivement lors du choix du modèle d’IA à utiliser. Il est essentiel d’avoir une bonne stratégie de validation et de vérifier si le modèle correspond bien à l’objectif. Enfin, l’un des groupes a indiqué qu’il est utile de conserver un enregistrement de la requête ou des données initiales, afin de pouvoir retracer la source de tout biais, le cas échéant.
5) À quoi ressemble l’utilisation responsable ou éthique de l’IA dans la pratique pour votre groupe ?
Le groupe a discuté des principes fondamentaux de l’utilisation éthique de l’IA, en identifiant des valeurs clés telles que la transparence, la responsabilité, l’équité et l’inclusion. Ils ont souligné que les systèmes d’IA devraient toujours être utilisés sous la supervision d’un être humain, afin de s’assurer qu’ils sont sûrs, bénéfiques et conformes à l’intérêt public. Les participants ont insisté sur la confidentialité des données collectées, en particulier dans le domaine de la santé, où la protection de la vie privée est essentielle. Le groupe a convenu que les outils d’IA doivent respecter des normes éthiques et que leur utilisation ne doit jamais nuire ni exclure qui que ce soit. Ils ont conclu que l’intégration de l’IA de manière responsable va au-delà des performances techniques ; elle nécessite également des règles claires, des systèmes fiables et des pratiques inclusives qui respectent les droits de l’homme. L’utilisation éthique de l’IA, en particulier dans le domaine de la santé publique, exige une planification minutieuse et une mise en œuvre réfléchie à chaque étape du processus décisionnel.
6) Comment rendre les modèles d’IA plus compréhensibles et plus transparents pour les non-experts ?
Ce groupe a étudié la manière de rendre les modèles d’IA plus clairs et plus accessibles. Il a suggéré d’utiliser le cadre de communication « connu-inconnu » pour expliquer ce que le modèle peut et ne peut pas prédire. Ils ont également recommandé d’appliquer le principe KISS (“Keep It Short and Simple”) pour faciliter la compréhension des messages et simplifier les symboles complexes ou les termes techniques utilisés dans les résultats des modèles. Le groupe a souligné l’importance d’expliquer les limites des modèles, de montrer comment le modèle s’adapte au problème spécifique et de créer des stratégies de communication adaptées en fonction du public, qu’il s’agisse de chercheurs, de décideurs politiques ou d’agents de santé de première ligne. Leur discussion a mis en évidence que la clarté, l’adaptation au public et une bonne communication sont essentielles pour favoriser la compréhension et encourager une utilisation appropriée et critique.
7) Comment l’intelligence artificielle peut-elle contribuer à réduire les obstacles à l’accès ou à l’apprentissage de la modélisation, en particulier dans les contextes ou régions mal desservis ?
Le groupe a discuté de la manière dont l’intelligence artificielle peut contribuer à démocratiser l’accès à la modélisation. L’IA peut offrir des conseils étape par étape, aider à générer de nouvelles idées et résumer des concepts de modélisation complexes pour les rendre plus faciles à comprendre. Elle peut également aider les utilisateurs à explorer les données, à déboguer le code et à surmonter les barrières linguistiques en traduisant ou en simplifiant le contenu technique. Le groupe a souligné que cette capacité à rendre les outils de modélisation plus accessibles est particulièrement précieuse pour les utilisateurs non techniques et les communautés mal desservies ou disposant de peu de ressources. Lorsqu’elle est intégrée de manière réfléchie, l’IA a le potentiel d’élargir la participation et de permettre à un plus grand nombre de personnes de s’engager dans les processus de modélisation. Bien que l’IA seule ne puisse garantir l’inclusivité ou l’équité, son utilisation responsable, combinée à des politiques de soutien et à une mise en œuvre centrée sur l’humain, peut favoriser une prise de décision fondée sur les données plus inclusive et plus sensible à la diversité des besoins.
Remarques finales
Dans ses remarques de clôture de la réunion annuelle 2025 du réseau AMMnet, Hannah Slater (PATH, États-Unis), présidente du Conseil d’administration d’AMMnet, a exprimé sa profonde gratitude envers les nombreuses équipes et personnes ayant contribué au succès de l’événement. Elle a salué le travail des intervenants, des organisateurs, des panélistes, de l’équipe organisatrice des événements de la Fondation Gates, ainsi que celui de l’équipe chargée de la planification du groupe de travail SME.
Des remerciements particuliers ont été adressés au Secrétariat d’AMMnet, notamment à Shannon Stanfill, Ida Sagbo et Hifzah Malik (toutes de la Northwestern University, États-Unis), ainsi qu’à l’équipe organisatrice des événements au Sénégal pour ses efforts exceptionnels en coulisses.
Slater a souligné l’importance du réseau AMMnet et a encouragé les participants à diffuser largement ses réalisations et à fournir des retours pour améliorer les prochaines éditions. Elle a également remercié la Fondation Gates pour son soutien financier, qui a été déterminant dans la croissance du réseau AMMnet.
Elle a réservé ses remerciements les plus chaleureux aux participants eux-mêmes, dont l’implication a donné toute sa signification et sa richesse à cette rencontre. En lien avec le thème de cette année, Slater a rappelé que les données et l’analytique sont plus que jamais essentielles pour optimiser l’utilisation des ressources limitées. Elle a conclu en réaffirmant que la vitalité d’AMMnet repose sur la contribution collective, en rappelant qu’il existe de nombreuses façons de s’impliquer, et en lançant une invitation ouverte à toute personne souhaitant utiliser des outils quantitatifs pour éclairer les politiques et les pratiques dans la lutte contre le paludisme et les autres maladies infectieuses.
Published: 01/07/2025
This report is brought to you by the MESA Correspondents Awa Mariama Sene, Djiby Sow, Mamadou Samb Yade, and Serigne Ousmane Diaw. Senior editorial support has been facilitated by Khady Ndiaye and Manuela Runge.
THEMES: Modeling



