INTRODUCTION
Nous ne devons pas nous sentir triomphants face aux progrès réalisés au cours des 30 dernières années dans le domaine des neurosciences cognitives, de la génétique, de l'imagerie cérébrale ou de notre compréhension générale des aspects étiologiques de l'autisme non syndromique. Par conséquent, nous sommes pessimistes quant à la perspective de grandes percées futures dans notre compréhension des mécanismes de l'autisme. La raison d'un tel pessimisme est que les pratiques de recherche et les normes méthodologiques récentes ont largement favorisé la production d'erreurs de type 2, ne permettant pas de détecter les mécanismes qui expliquent la nature et l'existence de l'autisme. Des études méta-analytiques récentes indiquent que les tailles d'effet cas-témoins ont diminué jusqu'à 80 % pour les constructions neurocognitives (reconnaissance émotionnelle, planification, capacité de prise de perspective cognitive, taille du cerveau et caractéristiques EEG) qui distinguent les personnes autistes des personnes non autistes (Rodgaard et al., 2019). La multiplication progressive par 30 de la prévalence des personnes diagnostiquées comme autistes au cours des 50 dernières années coïncide avec l'inclusion d'individus de plus en plus éloignés de la description initiale (Fombonne, 2018 ; Hollin, 2017), ce qui entraîne une hétérogénéité croissante. Le nombre de caractères requis pour poser un diagnostic d'autisme a été divisé par deux entre 2004-2005 et 2014 pour les enfants diagnostiqués en âge scolaire en Suède (Arvidsson et al., 2018).
L'évolution de la délimitation de l'autisme et de la détection de la différence entre les individus autistes et non autistes s'est accompagnée d'une réplicabilité minimale des résultats structurels et fonctionnels en imagerie cérébrale. En génétique, les résultats les plus importants sont ceux qui ont exclu un rôle causal important de classes entières d'anomalies génétiques (telles que les délétions : Douard et al. (2021). Concernant les interventions, les principaux résultats ont été les résultats négatifs qui montrent l'efficacité minimale ou douteuse des techniques d'intervention (Brignell et al., 2018 ; Sandbank et al., 2020).
Certains chercheurs ont suggéré de décomposer le spectre de l'autisme en sous-groupes pour traiter ce mal. Cependant, les méta-analyses d'études tentant de créer des sous-groupes pour le spectre de l'autisme actuel rapportent que le nombre de groupes possibles pourrait être impraticable, la plupart ayant une valeur clinique douteuse (Wolfers et al., 2019). Conclure que cela démontre la validité de la catégorie du spectre (Fombonne, 2020) peut passer à côté de l'essentiel. Le dilemme actuel peut plutôt s'expliquer par le fait que la définition actuelle du spectre de l'autisme ne permet pas de détecter des sous-groupes car elle rassemble des ensembles d'individus non liés et dissemblables.
Les partisans d'une position dimensionnelle considèrent cette dérive comme un progrès. Le partage de signes diagnostiques avec d'autres pathologies psychiatriques et neurodéveloppementales multiples et l'existence de facteurs prédisposants communs entre l'autisme et ces mêmes pathologies pourraient laisser penser qu'une telle distinction catégorielle est devenue obsolète (Constantino & Charman, 2016). Cependant, si les catégories sont plombées par le problème de la frontière, les dimensions souffrent d'un problème de choix. L'utilisation des mesures dimensionnelles pour traiter la réification des troubles substitue au regroupement des individus dans une catégorie jugée arbitrairement circonscrite, la classification des individus selon la mesure d'une dimension, dont le choix est encore plus arbitraire. Une autre limite intrinsèque de l'approche dimensionnelle est l'augmentation incontrôlable du nombre de dimensions lorsque la complexité des objets augmente, ou la " malédiction de la dimensionnalité " (Feczko et al., 2019). Cette assimilation confond la possibilité de mesurer une même variable, comme la socialisation réciproque (Constantino et al., 2003) ou les couples empathie/systématisation (Baron-Cohen, 2009) chez tous les individus d'un groupe, et sa valeur explicative dans un modèle mécaniste.
Plusieurs causes peuvent être au centre de la situation actuelle : la standardisation des stratégies d'inclusion des individus identifiés comme autistes dans les recherches, l'application aveugle de règles méthodologiques, telles que l'exigence d'une grande taille d'échantillon et la recherche de représentativité, une utilisation abusive de l'analogie du pléiotropisme à l'autisme sans variants identifiés, une utilisation prématurée et trop étendue des " traits autistiques " comme autistes, et une distinction signe/spécificateur mal comprise. Ils seront discutés dans cet ordre.
DOGMES MÉTHODOLOGIQUES, HYPOTHÈSES PRÉMATURÉES ET STRATÉGIES DE CONSTATATION DES CAS QUI CONTRIBUENT À LA BANALISATION DE L'AUTISME
Fiabilité/standardisation
Le dogme du diagnostic de l'autisme est l'utilisation d'instruments validés et standardisés qui unifient l'opérationnalisation des critères du DSM et réduisent la divergence entre les jugements individuels. Nous soupçonnons cette standardisation des procédures de diagnostic d'être en grande partie responsable du plafonnement de la recherche sur l'autisme, en ajoutant une hétérogénéité artéfactuelle ou basée sur des critères ou des instruments à la variabilité naturelle de la présentation autistique due au sexe, à l'âge et au résultat. Le diagnostic d'autisme est obtenu à l'aide de ces instruments lorsqu'on atteint un score synthétique seuil en additionnant les scores des items individuels (Randall et al., 2018). Leurs scores seuils de sélection sont déterminés par un compromis spécificité-sensibilité, l'accord des experts étant depuis longtemps leur référence. Les multiples avertissements, notamment de C. Lord, indiquant qu'ils ne doivent pas être utilisés seuls et sans jugement clinique ont été essentiellement abolis par leur présentation commerciale en tant qu'instruments de diagnostic. Cependant, nous savons maintenant que ces instruments sont trop inclusifs (Molloy et al., 2011), influencés par des dimensions non spécifiques (Fombonne et al., 2020 ; Havdahl et al., 2016) et vulnérables à une évolution temporelle à grande échelle (Arvidsson et al., 2018). Malgré ces mises en garde, la plupart des articles de recherche les utilisent comme point d'entrée sans les affiner. Dans le monde clinique et de la recherche d'aujourd'hui, l'autisme est ce qui est mesuré par l'ADI-R et l'ADOS-G et la fiabilité est confondue avec la vérité.
Le problème des instruments standardisés peut être intrinsèque à l'utilisation de scores sommaires de critères polythétiques. Les scores sommaires privilégient le regroupement d'exemples qui partagent certaines caractéristiques - triviales lorsqu'elles sont mesurées quantitativement - par rapport à l'intersection d'exemples qui se ressemblent le plus. De plus, les signes dans les instruments standardisés sont indépendants afin d'éviter un " effet de halo ", c'est-à-dire le biais de détecter un signe lorsqu'un autre signe apparenté est présent - la contrepartie négative de l'expertise. Par conséquent, leur regroupement en " métasignes ", sous-ensembles de signes qualitativement spécifiés qui renforcent la reconnaissance clinique du diagnostic lorsqu'ils sont présents ensemble, est perdu dans l'opération. En outre, les signes dans les systèmes polythétiques ne sont pas pondérés de manière différentielle : leur contribution à la distance variable par rapport au prototype est remplacée par une réussite ou un échec quantitatif global. Dans l'ensemble, les critères polythétiques élèvent l'autisme dans la classification hiérarchique des conditions neurodéveloppementales. Cela augmente la fiabilité, mais au risque de la transformer en trivialité : si les juges sont divisés pour décider si un cercle bosselé est bien un cercle, ils seront tous d'accord pour dire que les deux sont des formes. La nature abstraite de certains critères DSM 5 de l'autisme (par exemple, A3 : déficiences dans le développement et le maintien des relations) est un exemple dramatique de fiabilité transformée en trivialité.
Taille de l'échantillon
Une conviction partagée par la communauté scientifique de l'autisme est que les premières recherches sur de petits échantillons ont biaisé les résultats en faveur de leurs hypothèses initiales, alors que les études sur un grand N, avec des normes élevées, ont apporté les résultats précédemment trouvés dans une lumière plus juste. Cette croyance est cohérente avec l'idée que les méta-analyses nous fournissent un message plus sûr que les études individuelles. Cependant, il existe des exemples indéniables (par exemple, en intervention : Pickles et al., 2016) dans lesquels une seule étude est meilleure qu'un millier d'études avec des standards moins élevés (Dawson & Fletcher-Watson, 2020). De plus, dans l'état actuel de la définition du spectre autistique, la primauté attribuée à la taille de l'échantillon sur la ressemblance des individus qui le composent crée un niveau de bruit qui augmente dramatiquement avec la taille de l'échantillon. L'évitement du risque de type 1 associé aux petits échantillons doit être mis en balance avec le risque de type 2 associé aux grands échantillons hétérogènes. Le phénomène du paradoxe de Simpson (Pearl & Mackenzie, 2018) décrit de manière similaire le poids excessif accordé aux valeurs aberrantes dans un petit échantillon et celui d'un sous-groupe divergent dans un grand échantillon. Si le recours à un grand N se fait au prix d'une augmentation incontrôlée de l'hétérogénéité, le gain obtenu en augmentant le N sera plus que compensé par la perte d'information résultant du bruit de l'hétérogénéité.
Représentativité
Assurer la représentativité de l'échantillon testé pour la population étudiée nous incitera toujours à privilégier l'échantillonnage probabiliste par rapport à l'échantillonnage de convenance. Cependant, l'échantillonnage aléatoire au sein de grandes cohortes est obtenu au prix d'une élévation constante de la taxonomie hiérarchique des affections neurodéveloppementales, avec laquelle l'autisme se confond alors : toute affection neurodéveloppementale ou psychiatrique de l'adulte est désormais suspectée de présenter des traits autistiques. L'échantillonnage probabiliste n'a de sens que pour une population dont l'identification est incontestable et peut servir de point de départ à la recherche. L'échantillonnage probabiliste offre une fausse sécurité tout en maximisant les biais ou l'incertitude introduits par l'état de la description d'une affection à un moment donné. L'échantillonnage probabiliste offre une fausse sécurité tout en maximisant les biais ou l'incertitude introduits par l'état de la description d'un état à un moment donné. Les résultats des recherches sur l'autisme fondées sur un échantillonnage probabiliste ne sont aussi bons que les critères d'inclusion utilisés pour sélectionner la population. À l'inverse, l'échantillonnage de convenance peut cibler une question spécifique, limitant sa représentativité à la question et à la population étudiée. Dans cette situation, je ferais plus confiance à l'échantillonnage de convenance qu'à l'échantillonnage probabiliste basé sur un grand N peu représentatif du sous-groupe pour lequel ma question était initialement posée.
La généralisabilité d'un résultat scientifique obtenu avec l'échantillon A à l'échantillon B est déterminée par le degré de similitude entre les individus composant les échantillons A et B. Il ne faut pas toujours viser la représentativité de l'ensemble du "spectre" : la véritable alternative n'est pas entre un échantillon choisi et un échantillon aléatoire, mais entre un échantillon choisi par quelques experts dans un but particulier et celui choisi selon des critères consensuels, universels et passe-partout, qui ont, après 30 ans, produit un minimum de connaissances décisives. De même, le dogme selon lequel une méta-analyse est par définition plus informative qu'une étude unique doit être remis en question. Une méta-analyse vaut ce que valent les études qui la composent, mais elle est moins généralisable qu'une étude individuelle portant sur un échantillon conforme à la question posée.
Justifier le "spectre" par le pléiotropisme
La variabilité de la présentation des jumeaux monozygotes concordants pour l'autisme nous apprend qu'une prédisposition génétique strictement identique peut produire des images différentes, ce qui pourrait être pris comme un argument contre le concept de prototypicité. Elle définit un certain type de variabilité, "des gènes au comportement", bien que la nature de la prédisposition génétique reste inconnue. Cependant, nous voyons plusieurs problèmes dans l'assimilation prématurée entre l'autisme avec et sans variants identifiés, ce qui limite l'utilisation du "pléiotropisme" comme contre-exemple de la prototypicité dans la deuxième situation. La concordance entre jumeaux augmente avec la prévalence acceptée, et donc diminue lorsque la " rigueur " des critères diagnostiques augmente (Tick et al., 2016). Le concept même de concordance perd de sa pertinence sous une certaine densité de traits " autistiques ". C'est précisément la légitimation de l'hétérogénéité par le pléiotropisme avec laquelle nous sommes en désaccord : le flou actuel des critères diagnostiques et des modes d'inclusion dans les cohortes englobe plus que la variabilité observée dans une situation validée par la concordance des diagnostics et par la reconnaissance phénotypique.
Pour avancer dans la détection des mécanismes génétiques en jeu dans l'autisme sans variants identifiés, il faut laisser ouverte la nature de la relation entre le phénotype de l'autisme au centre de la catégorie et à sa périphérie (Fisch, 2017). La pléiotropie est un sujet de recherche légitime à intégrer dans les modèles mécanistes " gène-comportement " lorsque le variant génétique est identifié. Cependant, la multiplicité des phénotypes observés associés à une famille de mutations voisines (par exemple, 22q11) dans un schéma de causalité directe a un correspondant similaire - mais considérablement amplifié - dans la multiplicité des modèles de causalité cohérents avec un phénotype " spectre " dans un schéma de causalité inverse (voir figure 1(a)). Toute augmentation de la variabilité de ce phénotype a un effet multiplicatif sur ses causes possibles, comme tout élargissement de la définition de l'autisme, du prototype aux critères polythétiques, a un effet multiplicatif sur la prévalence et l'hétérogénéité de la constatation des cas (figure 1(b)). Le pléiotropisme reconnu ne peut justifier l'inclusion d'individus hétérogènes lorsque nous partons d'un phénotype mal défini pour identifier une altération génétique inconnue (du comportement au gène).
(a, b) Variation de l'hétérogénéité en fonction de la directionnalité dans le diagnostic et la recherche. (a) Hétérogénéité directionnelle dans la recherche. Dans une direction causale allant des gènes au comportement, la pléiotropie décrit l'augmentation de la variabilité x, de celle de la cause génétique connue (x) à celle de la déviation phénotypique correspondante (nx). Dans une investigation ou une imagerie génétique par causalité inverse, à partir du comportement ou de la cognition, cette augmentation de la variabilité est disproportionnée (nx → nxn), ce qui entraîne la non-réplicabilité des résultats. (b) Hétérogénéité directionnelle dans le diagnostic. L'évolution historique de la reconnaissance initiale du prototype à l'identification par des critères entraîne une augmentation de la variabilité du phénotype (x → nx). Dans le sens inverse (des critères de diagnostic à la détermination des cas), la variabilité augmente de manière disproportionnée (nx → nxn), produisant une augmentation épidémique de la prévalence.
Le dogme de "l'extrême d'une distribution
Une autre croyance acceptée comme une avancée de la dernière décennie de recherche est que l'autisme clinique est l'extrême d'une distribution continue de traits autistiques dans la population générale (Happe & Frith, 2020). Cependant, la notion de traits autistiques ne fournit pas d'informations sur l'autisme tant que la relation entre les individus chez qui ces traits sont mesurés n'est pas validée de manière indépendante. Les traits autistiques ne sont pas l'autisme, mais plutôt des caractéristiques sociales ou cognitives pour lesquelles la relation avec l'autisme reconnaissable ne peut être interprétée comme telle que dans des situations limitées dans lesquelles ils peuvent indiquer une prédisposition génétique à l'autisme (Mottron & Bzdok, 2020). Une prédisposition génétique à l'autisme n'est pas l'autisme, dans le sens où chacun de ces deux niveaux constitue la stabilisation de processus qui ont chacun leur propre logique, même s'ils sont génétiquement liés. La fusion des deux concepts confond la chaîne de causalité avec la stabilité des effets. La promotion d'une approche dimensionnelle de l'autisme est une conclusion indue à un fait vérifié, l'existence d'un phénotype plus large. Elle aboutit à la détection de similitudes triviales dans un nombre indéfini de contextes et de conditions. En conséquence, la sélection des dimensions retenues comme "traits" parmi les diverses manifestations de l'autisme prototypique est arbitraire et extrêmement vague. Leurs anomalies sont intrinsèquement non spécifiques (quelle condition psychiatrique n'altère pas la "réciprocité sociale" ?).
Nous suggérons donc une séparation conceptuelle et opérationnelle entre l'autisme et les traits autistiques. Cela conduirait à n'utiliser la notion de " trait autistique " que pour les personnes apparentées à l'autisme prototypique, et donc au phénotype autistique plus large. Même dans ce contexte limité, la réduction du phénotype par la promotion d'une seule variable quantitative crée, de façon circulaire, une distribution continue artéfactuelle. Cette approche devrait être remplacée par une recherche systématique de signes qualitatifs évidents chez les proches d'un proband prototypique autiste. Ceux-ci ne sont pas nécessairement " autistes ", comme le montre la présence d'un retard de langage simple et réversible chez les frères et sœurs d'enfants autistes (Marrus et al., 2018).
La distinction entre les signes et les spécificateurs
Suivant le choix offert par le DSM 5, les spécificateurs cliniques peuvent prendre n'importe quelle valeur sans pour autant modifier l'appartenance d'un individu à la catégorie " spectre autistique ". Il est certes possible d'observer des variations dans l'intelligence mesurée, les comorbidités ou le langage, notamment au cours du développement (Georgiades et al., 2017) d'un phénotype initialement prototypique. Cependant, l'appartenance de ces différentes variations phénotypiques à la catégorie de l'autisme doit être validée par une présentation initiale prototypique. Par exemple, dans le cas du spécificateur " langage ", l'hétérogénéité objective des résultats de l'autisme non verbal pendant la période préscolaire est évidente, mais il y a peu de chances de trouver les mécanismes qui prévalent dans le développement du langage autistique si nous étudions collectivement des personnes qui ont des trajectoires développementales différentes ab initio.
Le diagnostic différentiel a disparu des critères du DSM, remplacé par le spécificateur "comorbidité", et n'a jamais été intégré dans leur opérationnalisation dans les outils standardisés. Cette décision pourrait sembler être soutenue par la découverte banale de traits autistiques dans une variété indéfinie de conditions psychiatriques et neurodéveloppementales. Nous soutenons cependant que cette décision du DSM produit un tel résultat et que les seuils des instruments standardisés l'entérinent. Cela dissout l'autisme dans un marasme désormais incontrôlable d'hétérogénéité. À l'inverse, le prototype de l'autisme est caractérisé par des associations entre les valeurs des spécificateurs cliniques, qui ne sont pas indépendantes les unes des autres (par exemple, Manelis et al. (2020). En raison de la dilution des signes autistiques dans les mesures quantitatives de dimensions abstraites et non spécifiques, il est désormais impossible (voire déconseillé) de faire la distinction entre une comorbidité et une phénocopie - par exemple, entre une atypie sociale liée au TDAH et à l'autisme. Dans cette situation, une comorbidité identifiée chez des personnes autistes ne devrait pas être considérée a priori comme informative pour l'autisme. Cela s'applique particulièrement à l'autisme avec des conditions neurogénétiques, qui ne devrait pas être considéré comme informatif réciproquement avec l'autisme sans ces conditions, en tant que membres communs d'un "spectre autistique". Cette distinction, bien que claire il y a 20 ans, s'est progressivement estompée. Il a fallu 20 ans pour (re)découvrir que l'autisme avec et sans déficience intellectuelle non verbale diffère (par exemple, en matière d'héritabilité : Xie et al. (2020)) au point qu'ils peuvent être minimalement informatifs de manière réciproque.
CONTRIBUTION DE LA THÉORIE DU PROTOTYPE
L'atteinte d'un seuil est un " regroupement sans ressemblance ", à l'opposé de la ressemblance familiale graduelle qui caractérise les prototypes (Rosch, 1978 ; Wittgenstein, 1953). Il y a un conflit épistémique entre la reconnaissance de la correspondance au prototype, qui est intrinsèquement gradée, et un seuil de diagnostic de type "réussite ou échec" (vous êtes ou n'êtes pas autiste), qui abolit cette gradation au sein d'une catégorie. Alors que le prototype est basé sur la ressemblance familiale, cette dernière approche copie le cadre nécessaire-suffisant qui s'est avéré n'être approprié que pour les domaines mathématiques, fonctionner mal en biologie, et n'avoir aucune validité psychologique. Elle correspond à un modèle formel de catégorisation qui ne correspond ni à la manière dont l'autisme a été découvert, ni aux lois psychologiques régissant l'utilisation d'entités sémantiques concrètes ou abstraites lors de l'identification d'un groupe de signes.
L'application de la théorie du prototype à un diagnostic d'autisme note la similarité d'un individu avec le prototype subjectif d'un nombre limité d'experts qui ont été longtemps exposés à une population enrichie de personnes présumées autistes. Nous suggérons de remplacer le recours à l'augmentation du N des études incorporant des individus hétérogènes par l'augmentation du N auquel les experts supervisant le recrutement ont été exposés. Ce que nous perdons en puissance statistique sera compensé par un meilleur rapport signal/bruit, résultant de l'étude d'individus plus ressemblants.
Au-delà de la question de la gradation de la ressemblance familiale, la notion de prototype est associée à celle d'un niveau de base dans une hiérarchie sémantique, dans laquelle la catégorie maximise l'information véhiculée par les caractéristiques corrélées. Il coïncide avec l'ensemble des traits les plus fréquemment ou précocement rencontrés qui discriminent une catégorie d'une autre au même niveau. L'image mentale qu'ils évoquent reflète l'ensemble de la catégorie sans autre analyse. La validité, la probabilité qu'une caractéristique x prédise une catégorie y et ne soit pas associée à une autre catégorie, est maximisée au niveau de base. Cette notion de niveau de base peut être appliquée de manière fructueuse aux catégories psychiatriques, qui sont organisées de manière hiérarchique (Flanagan et al., 2012). Les catégories superordonnées (par exemple, le spectre autistique) partagent la plupart de leurs attributs avec des catégories contrastantes (par exemple, d'autres conditions neurodéveloppementales), favorisant ainsi la substitution diagnostique.
La notion de niveau de base peut répondre au problème de la comorbidité, si fréquente dans l'autisme (Hossain et al., 2020 ; Lai et al., 2019 ; Romero et al., 2016) que certains ont soulevé la question de la distinction entre l'autisme et les autres entités cliniques. La comorbidité psychiatrique de l'autisme actuellement rapportée peut dépendre directement de la prototypicité des individus sur lesquels elle est calculée. Une catégorie hétérogène, telle que le "spectre de l'autisme", peut être une catégorie tout simplement trop générale, abstraite ou superordonnée, qui a besoin d'être décomposée en catégories plus homogènes et plus informatives en descendant d'un niveau dans la hiérarchie. Cela était évident dans le chevauchement de la catégorie précédente du DSM IV, PDDNOS, avec une variété indéfinie de conditions neurodéveloppementales et psychiatriques (de Bruin et al., 2007).
CONCLUSION : LA PRIORITÉ DOIT ÊTRE DONNÉE AUX PROTOTYPES DANS LES POPULATIONS DE RECHERCHE
Nous émettons l'hypothèse que les personnes jugées les plus prototypiques in presentia par différents juges seront plus semblables les unes aux autres que celles atteignant un seuil identique d'un instrument standardisé. Une telle population serait arbitrairement tronquée à la puissance suffisante pour obtenir une différence dans le compartiment de l'autisme étudié, de façon à ne garder que les individus les plus prototypiques de chaque grand sous-groupe pour un N déterminé. Il ne s'agit pas de garder les individus les plus sévères, car la sévérité, telle qu'elle est définie actuellement, confond adaptation et intelligence. Prototypicité et sévérité sont, dans certains cas, orthogonales et dans d'autres, interreliées (de Marchena, & Miller, 2017).
Nous proposons donc les étapes suivantes pour la création d'une cohorte de recherche combinant les avantages du diagnostic de type catégoriel standardisé et de la gradation de la prototypicité. (a) Echantillonner une population qui dépasse le score de la somme d'un seuil standardisé. (b) Décomposer la population en compartiments présentant des valeurs homogènes pour les spécificateurs du DSM 5 (par exemple, comorbidité : avec ou sans CNV ou conditions neuro-génétiques ; langage : avec ou sans retard de langage initial ; intelligence : avec ou sans déficience intellectuelle non verbale) auxquels seront ajoutés l'âge (préscolaire, scolaire et adulte) et le sexe. (c) Classer in situ les individus qui composent ces compartiments par prototypicité décroissante. Ce classement est obtenu en faisant la moyenne du score de chaque participant selon deux experts en fonction des éléments suivants : niveau de similitude avec sa catégorie personnelle d'autisme, rapidité d'identification clinique, exemplarité pour l'enseignement académique. (d) Déterminer un N suffisant pour la puissance souhaitée et tronquer les compartiments à ces N. (e) Enfin, comparez les différences cas-témoins obtenues dans chacun de ces compartiments pour tester leur généralisation.
Nous sommes à un moment de l'avancement de la science où nous ignorons la délimitation de l'autisme, mais où sa définition consensuelle limite notre capacité à concevoir des modèles mécanistes. Le spectre de l'autisme tel qu'il est actuellement défini par le DSM et opérationnalisé par des outils standardisés ne devrait pas être le point de départ de la recherche scientifique en neurosciences. Le spectre autistique est une convention qui évolue dans le temps et appartient davantage à l'histoire des sciences qu'à la neurobiologie, tout en limitant les découvertes de cette dernière discipline. Le bilan des découvertes de l'alternative dimensionnelle, régulièrement proposée comme une alternative à la prise de décision diagnostique catégorielle, est encore plus sombre. Le choix de considérer les dimensions comme pertinentes est encore plus arbitraire que celui des limites des catégories. Bien que cela implique de formaliser une limite arbitraire à l'inclusion d'une personne dans une cohorte de recherche, le fait de concentrer la recherche sur des individus prototypiques doit aboutir à des populations qui favorisent la production de connaissances - ce qui n'est pas le cas actuellement.
REMERCIEMENTS
Le financement de cette étude a été assuré par la Chaire de recherche M&R Gosselin de l'Université de Montréal sur les neurosciences cognitives de l'autisme. La Chaire n'a joué aucun rôle dans la conception de l'étude, la collecte, l'analyse ou l'interprétation des données, la rédaction du manuscrit ou la décision de soumettre l'article pour publication.
CONFLIT D'INTÉRÊT
Les auteurs ne déclarent aucun conflit d'intérêt potentiel.
CONTRIBUTIONS DES AUTEURS
Laurent Mottron a effectué des recherches bibliographiques, fourni des résumés d'études antérieures et rédigé le manuscrit final.
RÉFÉRENCES