Literature DB >> 29930571

Hélio Amante Miot1.   

Abstract

Entities:  

Year:  2016        PMID: 29930571      PMCID: PMC5829700          DOI: 10.1590/1677-5449.004216

Source DB:  PubMed          Journal:  J Vasc Bras        ISSN: 1677-5449


× No keyword cloud information.
Análise de concordância se refere à capacidade de aferir resultados idênticos (mesma unidade de medida), aplicados ao mesmo sujeito/fenômeno, quer por instrumentos diferentes, pelo mesmo instrumento em tempos diferentes, por avaliadores diferentes, ou por alguma combinação dessas situações. Exemplos triviais são calibragem de instrumentos, fidedignidade de escala/medida, avaliação de equivalência entre ferramentas de mensuração, julgamento em provas de habilidades, avaliação de repetitividade ou reprodutibilidade, e análise diagnóstica (concordância interpessoal e intrapessoal) e psicométrica (estabilidade temporal)1 , 2. Com frequência, demandas de análise de concordância são avaliadas, erroneamente, por técnicas estatísticas de correlação (por exemplo, coeficiente de Pearson), que pressupõem apenas que a variação dos valores de uma variável acompanhe a variação dos valores de outra. No entanto, para a análise de concordância, além de correlação, deve haver coincidência entre os valores. Por essa razão, as medidas de efeito de concordância costumam ser menores que os coeficientes de correlação, quando aplicadas ao mesmo conjunto de dados3 - 5. A definição do modelo analítico de concordância deve ser idealizada precocemente, na elaboração do projeto, de forma que seja contemplado um desenho que favoreça a coleta, a análise e a interpretação de dados. Nessa fase, contatar um estatístico experiente aumenta a chance de sucesso. Em princípio, a análise de concordância pode depender unicamente da definição predeterminada do pesquisador, que deve definir um limite tolerável para satisfazer suas necessidades. Isso ocorre comumente em calibragem e equivalência de ferramentas de mensuração, nas quais as aferições devem obedecer a uma variação percentual máxima em comparação a uma medida-padrão ou um instrumento específico. Entretanto, a existência inerente de erro aleatório de medidas ligada ao instrumento e/ou aos avaliadores inclui uma variação intrínseca das medidas, que interfere na estimativa de concordância. Para avaliar esses aspectos, foram desenvolvidos diversos testes estatísticos específicos, e os principais serão discutidos a seguir. A situação mais simples ocorre quando a variável de interesse é dicotômica (por exemplo, doente × saudável, indicação cirúrgica × clínica, aprovado × reprovado), e a estimativa ocorre por dois avaliadores ou dois instrumentos; nesse caso, classicamente se emprega a estatística kappa de Cohen. O valor, o intervalo de confiança e a significância estatística de kappa devem ser interpretados como a dimensão da concordância que ultrapassa a coincidência de avaliações que ocorrem ao acaso6. Como exemplo, a investigação de Barros et al.7 empregou Doppler dos membros inferiores versus transvaginal para a identificação de varizes pélvicas (Tabela 1), evidenciando concordância total de (62+93)/249 = 62,2%. Os 94 (37,8%) casos discordantes se distribuíram de forma bastante assimétrica, o que revelou maior falha diagnóstica do exame dos membros inferiores. O coeficiente kappa resultou em fraca concordância – 0,31 (IC95% 0,20-0,40), p < 0,01 –, apesar de estatisticamente significativa.
Tabela 1

Evidência de varizes pélvicas pela ultrassonografia com Doppler dos membros inferiores versus método transvaginal (n = 249)7.

Membros inferiores Transvaginal Total
Positivo Negativo
Positivo 62668
Negativo 8893181
Total 15099249
Uma situação mais elaborada ocorre quando uma variável ordinal (por exemplo, estágios de doença, níveis de gravidade, estimativa em “cruzes”, acerto total x parcial x erro) é estimada por dois avaliadores. Nesse caso, além das concordâncias totais, um peso pode ser atribuído para classificações próximas, em detrimento das maiores divergências. Para essa análise, utiliza-se, classicamente, a estatística kappa com pesos quadráticos (Fleiss-Cohen)6 , 8. Quando a mesma amostra é analisada, o estimador kappa com pesos apresenta maior magnitude que a medida de concordância completa, por incorporar o conceito de concordância parcial. Há uma variedade de formas de estabelecer pesos para as concordâncias parciais. Usualmente, kappa com pesos quadráticos apresenta o mesmo resultado do coeficiente de correlação intraclasse (CCI), discutido adiante8 , 9. Por exemplo, utilizando os dados brutos do trabalho de Brianezi et al.10, em que dois pesquisadores classificaram a marcação epidérmica imuno-histoquímica da proteína p53 a partir de uma escala ordinal de zero a quatro “cruzes”, observou-se pobre concordância total (16/63=25,4%) entre os avaliadores (Tabela 2). Entretanto, o coeficiente kappa com pesos resultou em uma concordância substancial – 0,66 (0,40-0,87) –, devido ao fato de que o avaliador 1 classificara sistematicamente as imagens em um nível maior que o avaliador 2, gerando alta concordância parcial. Outrossim, quando se dispõem de múltiplos níveis ordinais, as classificações dos valores extremos (por exemplo, 0 ou 4+) costumam resultar em maior concordância do que as categorias intermediárias.
Tabela 2

Avaliação comparativa da marcação (0 a 4+) epidérmica imuno-histoquímica da proteína p53 por dois pesquisadores experientes (n = 63)10.

Av2 Total
0 1+ 2+ 3+ 4+
Av1010----10
1+122---14
2+781--16
3+-641-11
4+--35412
Total291686463

Av1: avaliador 1; Av2: avaliador 2.

Av1: avaliador 1; Av2: avaliador 2. Quando as variáveis de interesse são quantitativas (discretas, contínuas ou ranks) e ocorre a estimativa por dois avaliadores (interobservador), dois instrumentos ou as variáveis são estimadas em momentos diferentes (teste-reteste), emprega-se comumente o CCI para completa concordância, que é robusto inclusive para violações de normalidade das distribuições11 - 14. Há diferentes algoritmos de cálculo do CCI para avaliar correlação e concordância. Porém, neste texto, importam os algoritmos de completa concordância. Entre esses, o pesquisador deve optar por: aleatório de uma via, aleatório de duas vias ou misto de duas vias, de acordo com a natureza dos avaliadores. No primeiro, os avaliadores não são os mesmos para cada fenômeno avaliado; no segundo, os avaliadores são os mesmos para cada fenômeno e são escolhidos aleatoriamente (mais empregado); no terceiro, os avaliadores não são aleatórios, mas os únicos possíveis (por exemplo, análise intraobservador). Por fim, o pesquisador deve optar pelo CCI de medidas únicas, quando importa a concordância da medida de cada avaliador em relação ao comportamento dos n avaliadores (mais empregado), ou pelo CCI de medidas médias, quando o escore da variável é composto pela combinação dos n escores dos avaliadores. Essas opções podem levar a indicadores de diferentes magnitudes15 , 16. Como exemplo, serão utilizados os dados brutos de Ianhez et al.17, que promoveram a contagem de lesões cutâneas múltiplas por dois avaliadores treinados – um deles, em dois momentos diferentes (A, B1 e B2) –, a fim de validar um sistema de contagem padronizado de queratoses actínicas dos membros superiores (n = 60). O CCI para concordância completa da comparação (misto de duas vias) intraobservador (B1 x B2) resultou 0,74 (0,60-0,84) para medidas únicas e 0,85 (0,75-0,91) para medidas médias. Já o CCI (aleatório de duas vias) interobservador (A x B1) resultou 0,68 (0,47-0,82) para medidas únicas e 0,81 (0,64-0,90) para medidas médias, sempre com p < 0,01. Esses resultados indicaram haver maior consistência quando um mesmo avaliador contou duas vezes as lesões, mostrando o benefício de se utilizar, como estimativa, a média de duas medidas. Usualmente, a concordância interobservador é menor que a intraobservador para a estimativa da mesma amostra, porque incorpora variabilidades inerentes a diferentes avaliadores. Além disso, a estimativa de CCI para medidas únicas gera estimadores de menor dimensão do que a estimativa para medidas médias, o que justifica o uso de múltiplas medidas para reduzir o erro aleatório17. Além da cuidadosa descrição metodológica do processo de seleção de sujeitos e avaliadores, e de coleta dos dados e das técnicas analíticas empregadas, os resultados de investigações de concordância devem ser expressos pelos dados percentuais de concordância (total e de subgrupos), além dos estimadores, com seus intervalos de confiança de 95% e sua significância estatística. Somente assim é possível interpretar em que circunstâncias as variáveis divergem. A interpretação da magnitude dos estimadores de concordância (kappa ou CCI) é convencionada como: 0 (ausência), 0-0,19 (pobre), 0,20-0,39 (fraca), 0,30-0,59 (moderada), 0,60-0,79 (substancial), e ≥ 0,80 (quase completa)4 , 6 , 16. Há generalizações dos algoritmos de cálculo de kappa e do CCI para múltiplas avaliações, assim como diferentes combinações de sujeitos e avaliadores. Entretanto, esses métodos transcendem o escopo deste texto1 , 18. A concordância de variáveis de natureza quantitativa pode ser representada graficamente, em pares, pelo diagrama de Bland-Altman, que projeta no eixo das ordenadas a diferença absoluta das medidas de cada ponto, e, nas abscissas, sua média2. Além de exibir toda a distribuição, ela permite avaliar tendências de piora da concordância de acordo com a dimensão das medidas (Figura 1). Entretanto, não consiste em um bom estimador da dimensão da concordância. Por isso, são preferíveis os testes de CCI previamente citados, como complemento à representação gráfica.
Figura 1

Diagrama de Bland-Altman das contagens intraobservadores (B1 x B2) de lesões cutâneas (queratoses actínicas) dos membros superiores (n = 60)17. Linha tracejada: média das diferenças das medidas. Linhas pontilhadas: intervalo (95%) das distribuições das diferenças das medidas.

Ainda utilizando os dados brutos de Ianhez et al.17, a análise da Figura 1 permite identificar maior consistência nas contagens para valores abaixo de 10 lesões. É, pois, usual que a concordância sofra efeito da dimensão das medidas. A limitação de um intervalo (por exemplo, inclusão de pacientes com menos de 10 lesões) em um estudo clínico torna os valores mais confiáveis. O dimensionamento amostral para testes de concordância depende da dimensão de kappa (ou CCI), do poder do teste e da homogeneidade das categorias avaliadas. Esse assunto é adequadamente explorado em literatura específica6 , 19 , 20. Os indicadores de concordância são influenciados pela representatividade de cada classe analisada, o que exige a máxima homogeneidade dos subgrupos, mas também pela modificação da escala original das medidas (por exemplo, transformação Log ou x1/n). São essenciais o treinamento prévio e o controle do rigor das estimativas dos avaliadores, porque podem resultar em discordância entre as estimativas, o que adiciona um erro sistemático, em detrimento da dimensão das medidas aferidas1 , 4. Por fim, mesmo uma boa estimativa de concordância, com adequado intervalo de confiança e significância estatística, pode não ser confirmada e aplicada a outras populações, outros avaliadores, outros instrumentos ou a medidas não contidas na amostra primordial, respeitando os princípios inferenciais de generalização da amostra21. Analysis of agreement tests the capacity to arrive at identical results (with the same units of measurement), for the same subject/phenomenon, using different instruments, using the same instrument at different times or when performed by different examiners, or some combination of these conditions. Trivial examples include calibration of instruments, testing reliability of scales/measures, assessment of the equivalence of measurement tools, judgment in tests of ability, tests of repeatability or reproducibility, and diagnostic analysis (interpersonal and intraindividual agreement) and psychometric agreement (temporal stability).1 , 2 It is common for the need to analyze agreement to be, erroneously, met using statistical techniques for measurement of correlation (for example, Pearson’s coefficients), which are only testing the assumption that the variation in the values of one variable follows the variation in the values of another. However, for analysis of agreement, in addition to correlation, there must also be coincidence of values. This is why measures of the effect size of agreement tend to be smaller than correlation coefficients, when applied to the same dataset.3 - 5 The model of agreement analysis should be defined early on in the project design phase so that a study design is chosen to favor collection, analysis and interpretation of the data. Being able to count on an experienced statistician during this phase will increase the likelihood of success. In principle, analysis of agreement can depend exclusively on a definition predetermined by the researcher, who should define a tolerance limit that satisfies the research requirements. This is generally the case with calibration and equivalence of measurement instruments, in which measurements must conform to a maximum percentage variation in comparison with a standard measure or a specific instrument. However, the existence of an inherent random error of measurement linked to the instrument and/or the examiners includes an intrinsic variation in measurements, which interferes with estimation of agreement. Several different specific statistical tests have been developed to evaluate these aspects and the most important of them will be discussed below. The simplest situation occurs when the variable of interest is dichotomous (for example, sick vs. healthy, surgical indication vs. clinical, approved vs. rejected), and estimation is made by two examiners or with two instruments. In such cases, Cohen’s kappa statistic is classically employed. The kappa value, confidence interval and statistical significance should all be interpreted as the magnitude of agreement that exceeds the degree of coincidence of assessments that would occur by chance.6 For example, an investigation conducted by Barros et al.7 employed lower limb vs. transvaginal Doppler ultrasound for identification of pelvic varicose veins (Table 1), reporting total agreement of (62+93)/249 = 62.2%. The 94 (37.8%) cases of disagreement were distributed in a highly asymmetrical fashion, which revealed a higher rate of diagnostic failure in the lower limb examinations. The kappa coefficient showed weak agreement – 0.31 (95%CI% 0.20-0.40), p < 0.01 – even though it was statistically significant.
Table 1

Evidence of pelvic varicose veins according to Doppler ultrasonography of the lower limbs vs. the transvaginal method (n = 249).7

Lower limbs Transvaginal Total
Positive Negative
Positive 62668
Negative 8893181
Total 15099249
A more elaborate situation occurs when an ordinal variable (for example, disease stages, severity levels, graded estimates [0, 1+, 2+, 3+ or 4+, for example], totally correct vs. partially correct vs. error) is estimated by two examiners. In such cases, in addition to total agreement, a weighting can be attributed to similar classifications, favoring them over larger degrees of disagreement. For this type of analysis, the classical choice is the kappa statistic with quadratic weighting (Fleiss-Cohen).6 , 8 When the same sample is analyzed, the weighted kappa estimator returns a higher magnitude than the measure of complete agreement, since it incorporates the concept of partial agreement. There are several ways of establishing the weights assigned to partial agreements. Usually, kappa with quadratic weightings will return the same result as the Intraclass Correlation Coefficient (ICC), which is discussed below.8 , 9 For example, using the crude data from the study published by Brianezi et al.,10 in which two researchers classified immunohistochemical epidermal marking of the p53 protein using an ordinal scale of 0 to 4+, poor total agreement (16/63=25.4%) between examiners was observed (Table 2). However, the weighted kappa coefficient resulted in substantial agreement – 0.66 (0.40-0.87) – due to the fact that examiner 1 systematically classified images at a higher level than examiner 2, leading to a high degree of partial agreement. Additionally, when there are multiple ordinal levels, classifications at the extreme values (for example, 0 or 4+) tend to result in greater agreement than the intermediate categories.
Table 2

Comparative assessment of immunohistochemical epidermal marking (0 to 4+) of p53 protein by two experienced researchers (n = 63).10

Av2 Total
0 1+ 2+ 3+ 4+
Av1010----10
1+122---14
2+781--16
3+-641-11
4+--35412
Total291686463

Av1: evaluator 1; Av2: evaluator 2.

Av1: evaluator 1; Av2: evaluator 2. When the variables of interest are quantitative (discrete, continuous or ranks) and two examiners make estimates (interobserver agreement), there are two instruments, or the variables are estimated at different times (test-retest reliability), then the ICC for complete agreement is generally used, which is even robust to violations of normal distribution.11 - 14 There are a number of different algorithms for calculating ICCs to assess correlation and agreement. However, for the purposes of this text, it is the algorithms for complete agreement that matter. Of these, the researcher must choose between: one-way random, two-way random or two-way mixed, depending on the nature of the examiners. In the first option, the examiners are not the same for each phenomenon assessed; in the second, the examiners are the same for each phenomenon and are chosen at random (the most used); in the third, the examiners are not random, but the only ones possible (for example, intraobserver analysis). Finally, the researcher must choose the single measure ICC if what is important is the agreement of each examiner’s measurement in relation to the behavior of the n examiners (the most used), or the mean measures ICC if the score for the variable is composed of a combination of the n scores of the examiners. These options can result in indicators of different magnitudes.15 , 16 As an example, the crude data will be used from Ianhez et al.,17 in which counts of multiple cutaneous lesions were conducted by two trained examiners – one of them at two different times (A, B1 and B2) – in a study to validate a system for standardized counting of actinic keratoses of the upper limbs (n = 60). The ICC for complete agreement of the intraobserver (B1 vs. B2) comparison (two-way mixed) resulted in 0.74 (0.60-0.84) for single measures and 0.85 (0.75-0.91) for mean measures. However, the ICC for interobserver (A vs. B1) comparison (two-way random) resulted in 0.68 (0.47-0.82) for single measures and 0.81 (0.64-0.90) for mean measures, all with p < 0.01. These results indicate that consistency was greater when a single examiner counted the lesions twice, showing the benefit of using the mean of two measures as an estimate. Interobserver agreement is usually less than intraobserver agreement for estimates from the same sample, because the first includes sources of variability that are inherent to the different examiners. Additionally, the ICC estimate for single measures generates smaller magnitude estimators than the estimate for mean measures, which justifies the use of multiple measures to reduce the random error.17 In addition to careful methodological description of the process of selecting the subjects and the examiners, of the data collection and of the analytical techniques employed, the results of tests of agreement should be expressed in the form of percentage agreement data (total and subsets), in addition to providing the estimators and their 95% confidence intervals and statistical significance. This is the only way that enables interpretation of the circumstances under which variables diverge. The magnitude of estimators of agreement (kappa or ICC) is conventionally interpreted as follows: 0 (absent), 0-0.19 (poor), 0.20-0.39 (weak), 0.30-0.59 (moderate), 0.60-0.79 (substantial), and ≥ 0.80 (almost total).4 , 6 , 16 There are generalizations of the algorithms for calculation of the kappa and ICC for multiple assessments and also for different combinations of subjects and examiners. However, these methods are beyond the scope of this text.1 , 18 Agreement between variables of a quantitative nature can be represented graphically, in pairs, using a Bland-Altman plot, which projects the absolute difference between the measures of each data point on the ordinate axis and the mean of the two measurements on the abscissa axis.2 In addition to illustrating the entire distribution, this makes it possible to assess tendencies for agreement to worsen according to the magnitude of the measurements (Figure 1). However, it is not a good measure of the magnitude of agreement. For this purpose the tests of ICC mentioned above are preferable, to complement the graphical representation.
Figure 1

Bland-Altman plot of intraobserver counts (B1 x B2) of cutaneous lesions (actinic keratosis) on the upper limbs (n = 60).17 Broken line: mean of measurement differences. Dotted line: (95%) interval for distributions of measurement differences.

Returning once more to the crude data collected by Ianhez et al.,17 analysis of the plot in Figure 1 reveals that consistency of counts is greater for values below 10 lesions. It is indeed the usual case that agreement suffers an impact from the magnitude of measures. Limitation to a set interval (for example, restricting inclusion to patients with less than 10 lesion) makes the values more reliable in a clinical study. Choice of the sample size for tests of agreement is dependent on the dimension of the kappa (or ICC), on the test power and on the homogeneity of the categories under analysis. This subject is covered adequately in specialized literature.6 , 19 , 20 Indicators of agreement are influenced by the representativeness of each class analyzed, which demands maximum homogeneity of subsets, and also by the modification imposed on the original measurement scale (for example, Log or x1/n transformation). Prior training and control of the rigor of the examiners’ estimates are essential, because their absence could introduce disagreement between estimates, which would add a systematic error, in detriment to the magnitude of the measurements taken.1 , 4 Finally, even a good estimate of agreement, with an adequate confidence interval and statistical significance, may not be confirmed when applied to other populations, other examiners, other instruments or to measures not contained in the original sample, respecting the inferential principles of generalization of samples.21
  14 in total

1.  Evaluation epidermal p53 immunostaining by digital image analysis.

Authors:  Gabrielli Brianezi; Eliana Maria Minicucci; Mariângela Esther Alencar Marques; Hélio Amante Miot
Journal:  Skin Res Technol       Date:  2012-06-05       Impact factor: 2.365

2.  Sample size formulas for estimating intraclass correlation coefficients with precision and assurance.

Authors:  G Y Zou
Journal:  Stat Med       Date:  2012-07-04       Impact factor: 2.373

3.  Guidelines for Reporting Reliability and Agreement Studies (GRRAS) were proposed.

Authors:  Jan Kottner; Laurent Audigé; Stig Brorson; Allan Donner; Byron J Gajewski; Asbjørn Hróbjartsson; Chris Roberts; Mohamed Shoukri; David L Streiner
Journal:  J Clin Epidemiol       Date:  2010-06-17       Impact factor: 6.437

Review 4.  The kappa statistic in reliability studies: use, interpretation, and sample size requirements.

Authors:  Julius Sim; Chris C Wright
Journal:  Phys Ther       Date:  2005-03

5.  The reliability of counting actinic keratosis.

Authors:  M Ianhez; L F F Fleury Junior; E Bagatin; H A Miot
Journal:  Arch Dermatol Res       Date:  2013-09-18       Impact factor: 3.017

6.  The evaluation of agreement on continuous variables by the intraclass correlation coefficient.

Authors:  L Prieto; R Lamarca; A Casado; J Alonso
Journal:  J Epidemiol Community Health       Date:  1997-10       Impact factor: 3.710

7.  Statistical methods for assessing agreement between two methods of clinical measurement.

Authors:  J M Bland; D G Altman
Journal:  Lancet       Date:  1986-02-08       Impact factor: 79.321

8.  Inferences concerning a common intraclass correlation coefficient.

Authors:  A Donner; S Bull
Journal:  Biometrics       Date:  1983-09       Impact factor: 2.571

9.  The intraclass correlation coefficient: distribution-free definition and test.

Authors:  D Commenges; H Jacqmin
Journal:  Biometrics       Date:  1994-06       Impact factor: 2.571

Review 10.  Statistical methods used to test for agreement of medical instruments measuring continuous variables in method comparison studies: a systematic review.

Authors:  Rafdzah Zaki; Awang Bulgiba; Roshidi Ismail; Noor Azina Ismail
Journal:  PLoS One       Date:  2012-05-25       Impact factor: 3.240

View more
  10 in total

1.  Translation into Portuguese language (Brazil), transcultural adaptation and validation of the quality of life questionnaire in female pattern hair loss (WAA-QoL-BP).

Authors:  Gisele Keiko Machado Shimizu; Gláucia Ferreira Wedy; Luiza Vasconcelos Schaefer; Paulo Müller Ramos; Hélio Amante Miot
Journal:  An Bras Dermatol       Date:  2018 Sep-Oct       Impact factor: 1.896

2.  Cultural adaptation and validation of the quality of life questionnaire for patients with actinic keratosis (AKQoL-BR) to Brazilian Portuguese.

Authors:  Marcella Akemi Haruno de Vilhena; Ivanka Miranda de Castro; Anna Carolina Miola; Ingrid Stresser Gioppo; Amanda Soares Teixeira; Hélio Amante Miot
Journal:  An Bras Dermatol       Date:  2022-09-20       Impact factor: 2.113

3.  Development and Validation of a Dermoscopic Severity Score for Female Pattern Hair Loss.

Authors:  Mariana Álvares Penha; Paulo Müller Ramos; Vinícius de Souza; Helio Amante Miot
Journal:  Skin Appendage Disord       Date:  2021-12-14

4.  Assessment of the quality of life of Egyptian and Tunisian autoimmune bullous diseases' patients using an Arabic version of the autoimmune bullous disease quality of life and the treatment of autoimmune bullous disease quality of life questionnaires.

Authors:  Marwah Adly Saleh; Ines Zaraa; Nejib Doss; Noha Adly Saleh; Dedee F Murrell
Journal:  An Bras Dermatol       Date:  2019-10-17       Impact factor: 1.896

5.  Validation of the Skindex-17 quality of life assessment instrument for a Brazilian population.

Authors:  Marilia Formentini Scotton Jorge; Ioana Bittencourt Mourão; Camila Fernandes Pollo; Ticiane Dionízio de Sousa; Silmara Meneguin; Hélio Amante Miot
Journal:  An Bras Dermatol       Date:  2020-11-18       Impact factor: 1.896

6.  Brazilian Portuguese version of the Amsterdam infant stool scale: a valid and reliable scale for evaluation of stool from children up to 120 days old.

Authors:  Laura Cantisano de Deus Silva; Priscila Monaro Bianchini; Erika Veruska Paiva Ortolan; Juliana Fattori Hamamoto; Rosemary Fermiano; Rebeca Mayara Padilha Rego; João César Lyra; Marc Alexander Benninga; Pedro Luiz Toledo de Arruda Lourenção
Journal:  BMC Pediatr       Date:  2021-02-04       Impact factor: 2.125

7.  Development, Validation, and Reliability of a Sedation Scale in Horses (EquiSed).

Authors:  Alice Rodrigues de Oliveira; Miguel Gozalo-Marcilla; Simone Katja Ringer; Stijn Schauvliege; Mariana Werneck Fonseca; Pedro Henrique Esteves Trindade; José Nicolau Prospero Puoli Filho; Stelio Pacca Loureiro Luna
Journal:  Front Vet Sci       Date:  2021-02-16

8.  Agreement among four portable wireless pulse oximeters and in-office evaluation of peripheral oxygen saturation.

Authors:  Saulo Maia d'Avila Melo; Marília Ferraz de Oliveira Macedo; Juliana Silva Santana Pereira
Journal:  J Bras Pneumol       Date:  2020-11-06       Impact factor: 2.624

9.  Indeterminate thyroid cytology: detecting malignancy using analysis of nuclear images.

Authors:  Caroline Y Hayashi; Danilo T A Jaune; Cristiano C Oliveira; Bárbara P Coelho; Hélio A Miot; Mariângela E A Marques; José Vicente Tagliarini; Emanuel C Castilho; Carlos S P Soares; Flávia R K Oliveira; Paula Soares; Gláucia M F S Mazeto
Journal:  Endocr Connect       Date:  2021-06-29       Impact factor: 3.335

10.  P-value and effect-size in clinical and experimental studies.

Authors:  Anna Carolina Miola; Hélio Amante Miot
Journal:  J Vasc Bras       Date:  2021-07-05
  10 in total

北京卡尤迪生物科技股份有限公司 © 2022-2023.