Literature DB >> 36031548

[Quality assurance follow-up survey of the ELISA cohort study on COVID-19 prevalence: The view of study participants - What is well received?]

Elke Peters1, Aiham Alabid2, Susanne Elsner2, Christine Klein3, Max Borsche3, Jan Rupp4, Alexander Katalinic2.   

Abstract

INTRODUCTION: With the outbreak of the Corona pandemic, the LübEcker longitudinal study on infections with SARS-CoV-2 (ELISA study) was conducted in the Lübeck area to provide information on the prevalence, unreported cases and symptoms of COVID-19. The aim of the present study is to evaluate defined structure and process indictors of the study conduct of the ELISA study by subjects.
METHODS: After defining and operationalizing participant-oriented quality indicators, 3,710 participants were surveyed online via LimeSurvey. Indicators defined were access to the study, time requirements, reporting of findings, ratings of study apps used, communication, study center, tolerability of sample collection, and willingness to re-participate. In addition, comments on push and pull factors of study participation could be made. The evaluation was both quantitative and qualitative.
RESULTS: 45% of the follow-up respondents (n=1,684) answered the questions on the defined structural and process indicators. In the quantitative part of the survey, tolerability of venous blood sampling was rated as significantly better than that of nasopharyngeal smears. 91% of the follow-up respondents welcomed the offer to view their findings in the personal results portal. Overall, the indicators were mostly rated positively. According to the qualitative data, the study participants found the win-win situation of the test opportunity to contribute to research, the local relevance of the study, the small incentives, and the low-threshold nature of the study registration to be positive aspects of the study. According to the quantitative data, participants would like to see an improvement in the usability of the digital applications for more user-friendly identification solutions, reminder functions, announcements of software updates and avoidance of double entries. DISCUSSION: The defined structure and process indicators appear to be suitable for assessing the quality of study implementation from the subjects' point of view and indicate a good quality of study implementation under pandemic conditions. The lowest participation rate (75%) was measured at the fifth test time of strongly declining COVID-19 infections during the summer holidays in Schleswig-Holstein. Obviously, the benefit and meaningfulness of further study participation as well as competing factors were weighted differently by the subjects at this point. The follow-up survey points to a variety of options for motivating participants to maintain a high level of participation. Possible limitations are that a non-response bias cannot be excluded for the follow-up survey and that no suitable standardised questionnaire was available.
CONCLUSION: The present study provides recommendations for the planning of future cohort studies. It makes sense to continuously evaluate the motives for participation or non-participation and to explicitly consider them in the course of the study. Therefore, the definition of general quality indicators for the practical implementation of studies seems desirable. Positive experiences of the participants in connection with study participation are important, such as good time management, short response times, technical support offers and additional services such as a study homepage with frequently asked questions (FAQs), timely individual notifications of results and transparent, generally understandable information about study results during the study. Digital solutions are well received, but can still be improved for specific studies.
Copyright © 2022. Published by Elsevier GmbH.

Entities:  

Keywords:  COVID-19; Cohort study; Kohortenstudie; Online follow-up survey; Online-Nachbefragung; Participant perspective; Quality; Qualität; Teilnehmerperspektive

Year:  2022        PMID: 36031548      PMCID: PMC9411032          DOI: 10.1016/j.zefq.2022.06.001

Source DB:  PubMed          Journal:  Z Evid Fortbild Qual Gesundhwes        ISSN: 1865-9217


Hintergrund

Im Januar 2020 stufte die WHO den Ausbruch einer Atemwegserkrankung mit einem neuartigen Coronavirus als gesundheitliche Notlage von internationalem Ausmaß ein. Ende April 2020 überstieg die weltweite Zahl der gemeldeten COVID-19-Erkrankungen (coronavirus disease) nach Angaben des Center for Systems Science and Engineering (CSSE) der Johns Hopkins University bereits die 3-Millionen-Grenze. Über 217.000 COVID-bezogene Todesfälle waren registriert. Mit der weltweiten Verbreitung von SARS-CoV-2 bestanden dringende Forschungsbedarfe sowohl für die Erkrankung als auch die Verbreitung in der Bevölkerung, Übertragungswege etc. Wichtige Fragen waren u. a. die Rate der Durchseuchung und der Anteil symptomatischer Patienten, um das drohende Ausmaß der Pandemie besser vorhersagen zu können. Im Großraum Lübeck wurde in Kooperation mit 17 lokalen Institutionen die LübEcker Längsschnittuntersuchung zu Infektionen mit SARS-CoV-2 (ELISA-Studie) [1] initiiert. Schnell standen Methoden zur Bestimmung der Antigen- und Antikörperbestimmung zur Verfügung, ausreichende Laborkapazitäten, spezifische standardisierte Fragebögen und situationsadaptierte Erhebungsmethoden, Organisations- und Kommunikationsstrukturen, Infrastrukturen wie geschultes Personal, Räumlichkeiten, Untersuchungsmaterialien, Logistik, Datenmanagement und -verarbeitung und letztendlich die Finanzierung mussten jedoch erst eruiert und geschaffen werden. Im Rahmen der ELISA-Studie wurde von Mai 2020 bis Februar 2021 eine Bevölkerungskohorte aus dem Raum Lübeck und Umgebung zu sieben Zeitpunkten hinsichtlich der COVID-19-Prävalenz untersucht. Der prospektive Ansatz sollte Aufschluss über die Ausbreitung des SARS-CoV-2-Virus in der Bevölkerung und in definierten Risikogruppen geben. Insbesondere wurden untersucht, wie hoch die Dunkelziffer (Probanden ohne entsprechende Symptomatik und/oder Kontakt zu COVID-Patienten mit positivem Antikörper-Nachweis) im zeitlichen Verlauf ist und inwieweit sich Eindämmungsmaßnahmen und deren Lockerung auf die Verbreitung von SARS-CoV-2 (severe acute respiratory syndrome coronavirus type 2) in einem Niedriginzidenzgebiet, wie Schleswig-Holstein auswirken. Die erhobenen Daten sollten darüber hinaus der Identifizierung möglicher Symptome einer COVID-19-Erkrankung dienen, um möglichst frühzeitig infizierte Personen entdecken und eine Virus-Übertragung verhindern zu können. Um valide und reliable Ergebnisse in solchen epidemiologischen Kohortenstudien zu erzielen, sind geeignete Vorkehrungen der Qualitätssicherung zu treffen. Orientierend heißt es in den Leitlinien zur Sicherung von Guter Epidemiologischer Praxis (GEP) „… in epidemiologischen Studien [ist] eine begleitende Qualitätssicherung aller relevanten Instrumente und Verfahren sicherzustellen und eine interne Qualitätssicherung unabdingbarer Bestandteil“ (Leitlinie 6) [2]. Die GEP bieten Empfehlungen für die Planung, Vorbereitung, Durchführung, Auswertung und Beurteilung epidemiologischer Studien. Des Weiteren verweisen sie darauf, dass „Epidemiologische Studien, deren Anliegen die Umsetzung von Ergebnissen in gesundheitswirksame Maßnahmen ist, sollten die betroffenen Bevölkerungsgruppen angemessen einbeziehen und eine qualifizierte Risikokommunikation mit der interessierten Öffentlichkeit anstreben.“ (Leitlinie 11). Anregungen zu Qualitätsstandards für die Vorbereitung und Durchführung von epidemiologischen Kohortenstudien beschreiben auch Schmidt et al. in ihrem konsentiertem Anforderungskatalog mit 138 Anforderungen aus 10 Bereichen – ohne dabei auf alle Teile der GEP einzugehen [3]. Schmidt et al. merken an, dass Maßnahmen des Qualitätsmanagements in der Förderlandschaft vielfach unterbewertet und unterfinanziert sind und eine Nichtumsetzung sämtlicher Anforderungen eher die Regel ist, die Qualität der Studie davon aber nicht zwingend beeinträchtigt wird. Ein primärer Einbezug der Bevölkerung in die Studienvorbereitungen der ELISA-Studie war aufgrund von Distanzierungsmaßnahmen und höchstem Zeitdruck nicht sinnvoll möglich, obwohl gerade die Nutzung der Perspektiven, Präferenzen, Erfahrungen, Meinungen und Ansichten der Allgemeinbevölkerung von Interesse gewesen wären, da dies zu einer relevanteren und effektiveren Forschung beitragen kann [4]. Forschung kann durch solche Maßnahmen verbessert werden, Studienteilnehmer*innen können leichter rekrutiert und gebunden und Ergebnisse besser interpretiert werden. Dies kann zu einem schnelleren und breiteren Zugang z. B. zu neuen und besseren Behandlungsmöglichkeiten beitragen [4], [5], [6]. Allerdings ist nicht klar definiert, wie und mit welchen konkreten Instrumenten Betroffene in Kohortenstudien eingebunden werden können [7], sodass nicht nur an oder über sie geforscht wird. Für die medizinische Versorgung sind Qualitätsmanagementverfahren etabliert. Insbesondere in der ambulanten und stationären Versorgung werden systematische Patient*innenbefragungen als eine Methode angewandt, um nach Angabe des Institut für Qualitätssicherung und Transparenz im Gesundheitswesen (IQTIG) bestimmte Inhalte zu erfragen, die aus Sicht der Patient*innen zu einer qualitativ hochwertigen Versorgung gehören [8]. Der Faktor „Zufriedenheit“ steht dabei nicht im Vordergrund. Vielmehr sollen anhand konkreter Gegebenheiten und Erlebnisse der Patient*innen qualitätsrelevante Merkmale der Versorgung abgebildet werden [8]. In Anlehnung an die Qualitätsmanagement-Richtlinie/QM-RL [9] des Gemeinsamen Bundesausschusses zur vertragsärztlichen, -psychotherapeutischen, -zahnärztlichen sowie stationären Versorgung und den vom Institut für Qualitätssicherung und Transparenz im Gesundheitswesen (IQTIG) veröffentlichen methodischen Grundlagen [8] wurden im Rahmen der ELISA-Studie teilnehmerorientierte Qualitätsindikatoren definiert und operationalisiert, die auf die Bewertung der Studienstrukturen und -prozesse aus Sicht der Proband*innen zielen. Durch deren Anwendung sollten Potenziale zur Verbesserung für die Durchführung künftiger Kohortenstudien mit ähnlichem Design identifiziert werden, um möglicherweise auf den Trend abnehmender Akzeptanz und sinkender Teilnahmeraten von Studien [10], [11] reagieren zu können. Die zwei Fragestellungen der Nachbefragung lauteten: Wie bewerten die Studienteilnehmer*innen der ELISA-Studie die definierten Struktur- und Prozessindikatoren der Studiendurchführung? Welche Verbesserungspotentiale für die Durchführung der Studie können aufgrund der quantitativen Angaben und der genannten Push- und Pull-Faktoren von den Studienteilnehmer*innen aufgezeigt werden?

Methoden

Datengrundlage

Die Bevölkerung im Großraum Lübeck wurde zuerst über lokale Presse- und Rundfunkmedien über das Forschungsvorhaben der ELISA-Studie informiert und zur Teilnahme eingeladen. Dazu wurden im April 2020 studieninteressierte volljährige Personen gebeten, sich als potenzielle Studienteilnehmende in der Studien-App (MillionFriends, Perfood GmbH) zu registrieren und einen Eingangsfragebogen auszufüllen, wenn sie bereit waren an Antigen- und Antikörper-Testungen teilzunehmen und ihre Daten für wissenschaftliche Zwecke zur Verfügung zu stellen. Der Eingangsfragebogen beinhaltete Fragen zu Krankheitssymptomen, Kontakten zu COVID-19-Patienten, Krankenhausaufenthalten, Reisetätigkeiten, Vorerkrankungen sowie zu Medikamenten, Rauchen, Alkoholkonsum und Soziodemografie. Aus dieser Kohorte wurde eine für die Lübecker Bevölkerung repräsentative Zufallsstichprobe hinsichtlich Alter und Geschlecht zusammengestellt und durch weitere Risikogruppen (Personen mit vielen beruflich bedingten Kontakten) angereichert. Als einziges Ausschlusskriterium wurde Minderjährigkeit definiert. Teilnahmewillige Personen mussten in der Lage sein das Studienzentrum aufzusuchen. Die ausgewählten 3.474 Personen wurden per E-Mail gebeten, sich über eine Terminbuchungs-App zur ersten Testung per PCR-Nachweis (Polymerase Chain Reaction) aus Nasen-Rachen-Abstrich und Antikörper-Bestimmung im Blut) im Studientestzentrum anzumelden. Hier erfolgte nach vorheriger Probandeninformation die Einholung der Einwilligung in die eigentliche Studie. Zum ersten Testzeitpunkt wurden 3.051 Personen (ELISA-Kohorte, 88% der 3.474 Personen) eingeschlossen und innerhalb der Folgemonate (bis Februar 2021) zu weiteren sechs Testungen eingeladen (Abbildung 1 ). Zudem wurden die Studienteilnehmer*innen gebeten bis September 2020 zunächst alle drei Tage und im weiteren Verlauf dann zum sechsten und siebten Testzeitpunkt je einen App-basierten Verlaufsfragebogen auszufüllen, der Angaben zu Krankheitssymptomen, SARS-CoV-2-Testungen außerhalb der ELISA-Studie, außerhäuslicher Berufstätigkeit, Tätigkeiten in der Freizeit, Mobilität und psychologisch-medizinische Aspekte erfragte. Beim letzten Testtermin wurde die aufgebaute Infrastruktur zusätzlich an 659 neuen Studienteilnehmer*innen (Test-Kohorte) aus der ursprünglich registrierten Kohorte getestet. Die Befunde der PCR- und Antikörper-Tests wurden zeitnah an die Studienteilnehmer*innen zurückgemeldet. Mit der Studieneinwilligung erklärten Studienteilnehmer*innen auch die Bereitschaft an ergänzenden Befragungen teilzunehmen.
Abbildung 1

Flowchart ELISA-Studie mit Nachbefragung.

Flowchart ELISA-Studie mit Nachbefragung. Auf der Studien-Homepage wurden mit Beginn der Studie fortlaufend Informationen zur ELISA-Studie und FAQs zur Verfügung gestellt (https://elisa-luebeck.de) sowie wochentags von 8:00 bis 16:00 Uhr eine Telefon-Hotline angeboten.

Stichprobe

Die qualitätssichernde Nachbefragung schloss sowohl die ELISA-Kohorte als auch die Test-Kohorte ein, sodass insgesamt 3.710 Personen einen Umfragelink per E-Mail erhielten und vom 6.3. bis 31.3.2021 online via LimeSurvey an der Nachbefragung teilnehmen konnten. Die Befragungskohorte umfasste 59% Frauen und 41% Männer, das Durchschnittsalter bei Registrierung für die Studie betrug 45,5 Jahre (SD 14,7; Bereich: 18 bis 79 Jahre; Minderjährige ausgeschlossen). Weitere soziodemografische Merkmale aller Eingeladener sind der Tabelle 1 zu entnehmen.
Tabelle 1

Soziodemografische Angaben aller eingeladener Personen.

VariableAusprägungNachbefragungs-Kohorte (n = 3.710)
Altersgruppen, n (%)18–30 Jahre740(19,9)
31–40 Jahre760(20,5)
41–50 Jahre706(19,0)
51–60 Jahre812(21,9)
≥61 Jahre689(18,6)
keine Angabe3(0,1)
Geschlecht, n (%)weiblich1.508(40,6)
männlich2.199(59,3)
keine Angabe3(0,1)
Höchster Schulabschluss, n (%)Hauptschulabschluss257(6,9)
Realschulabschluss863(23,3)
Abitur/Fachabitur2.578(69,5)
keine Angabe12(0,3)
Risikogruppen (Personen mit vielen beruflich bedingten Kontakten), n (%)ja1.936(52,2)
Kinder im Haushalt, n (%)ja1.107(29,8)
Soziodemografische Angaben aller eingeladener Personen. In der ELISA-Kohorte wurden im Untersuchungszeitraum 89 (3,5%) ungeimpfte Personen positiv im Antikörper- (n = 85) und/oder PCR-Test auf SARS-CoV-2 (n = 41) getestet [1]. In der Test-Kohorte waren 13 (2,2%) ungeimpfte Personen Antikörper- (n = 12) und/oder PCR-positiv (n = 2). Die Teilnahmeraten an den Testungen betrugen zwischen 75% und 98%. Insgesamt wurden 19.528 PCR-Tests und 8.930 Antikörperuntersuchungen durchgeführt. Die Datenspeicherung erfolgte auf einem Studienserver in Deutschland unter Einhaltung der Europäische Datenschutzgrundverordnung. Aufgrund der hohen Teilnahmeraten bei den Verlaufsuntersuchungen, den bereits erhobenen soziodemografischen Daten und in der Erwartung einer ebenfalls hohen Bereitschaft zur Teilnahme an der Nachbefragung sowie einer besseren Durchführungsobjektivität erfolgte die Nachbefragung anonym ohne erneute Abfrage soziodemografischer Angaben.

Definierte Struktur- und Prozessindikatoren

Die Struktur- und Prozessindikatoren wurden in einem iterativen Prozess von den beteiligten Experten und der ELISA-Forschergruppe konsentiert, die ELISA-Forschergruppe umfasste 30 Personen. Aufgrund der pandemischen Situation wurde auf den Einbezug von externen Expert*innen und Studienteilnehmer*innen bei der Definition der Struktur- und Prozessindikatoren verzichtet. Orientierung bot die Qualitätsmanagement-Richtlinie [8] und für die Identifikation von Qualitätsaspekten und die Entwicklung der Indikatoren der Teil B der vom IQTIG veröffentlichen methodischen Grundlagen [7]. Wobei hinsichtlich der QM-RL insbesondere auf Grundelemente des Qualitätsmanagements wie Prozessorientierung und Kommunikation zurückgegriffen wurde. Es erfolgte eine Adaptation an die Studiensituation und nach der Priorisierung eine Auswahl an Indikatoren, die verhältnismäßig zur Hauptstudie und bedeutsam für künftige Studien erschienen. Unter den gegebenen Umständen der SARS-CoV-2-Pandemie stand primär nicht die Entwicklung von Qualitätsindikatoren für die Studiendurchführung im Fokus. Der resultierende selbst entwickelte Nachbefragungsbogen (Anhang A) beinhaltete folgende operationalisierte quantitative Indikatoren:

Zugang zur Studie

Teilnehmende konnten aus einer Liste auswählen, wie sie im April 2020 von der ELISA-Studie erfahren haben (aus der Zeitung, aus dem Internet, über soziale Medien, durch Freunde, Bekannte, Arbeitskollegen, durch Familienmitglieder, durch andere Personen oder anders).

Zeitbedarfe

Die Zeit für die Beantwortung des Nachbefragungsbogens wurde aus den automatisch in LimeSurvey registrierten Start- und Endzeiten berechnet. Zeit für den Weg zum Studienzentrum und die Aufenthaltsdauer dort (<15; 15–30; 30–45; 45–60 Minuten; >1 Stunde) sowie die Häufigkeit der Testteilnahme (1- bis 7-mal) konnten ausgewählt werden.

Befundmitteilung Relevanz und akzeptable Zeitspanne

In Bezug auf die PCR-Tests – und Antikörper-Befundmitteilung wurden deren Wichtigkeit (5-stufige Likert-Skala von sehr wichtig bis völlig unwichtig) und die zeitliche Akzeptanz der Befundmitteilung (1 Tag; 2; 3-4 Tage; bis zu 1 Woche; Mitteilung nicht erforderlich) erhoben. Zudem wurde die Sinnhaftigkeit eines persönlichen Befundportals aus Sicht der Studienteilnehmer*innen (5-stufige Likert-Skala von sehr sinnvoll bis gar nicht sinnvoll) sowie der Wunsch, welche Werte im Studienportal sichtbar sein sollten, erfragt.

Studien-Apps

Es erfolgten Bewertungen (5-stufige Likert-Skala von sehr gut bis sehr schlecht) der Teilnahmemöglichkeit über das Einschreiben in die Studien-App, die Bedienbarkeit, die Inhalte und die technische Zuverlässigkeit der Befragungs-App, die Befragungshäufigkeit sowie die Terminvergabe über die App. Zur Analyse negativer Bewertungen (schlecht, sehr schlecht) wurden freitextliche Begründungen erbeten.

Kommunikation

Dazu wurden die Telefon-Hotline, die Aufklärungsmaterialien, das Aufklärungsgespräch, die Nachfragemöglichkeiten sowie die Mitteilung negativer Befunde per E-Mail bzw. im persönlichen Befundportal bewertet (5-stufige Likert-Skala von sehr gut bis sehr schlecht).

Studienzentrum

Zur Bewertung (5-stufige Likert-Skala von sehr gut bis sehr schlecht) dieses Indikators wurden strukturelle Merkmale wie die Erreichbarkeit des Studienzentrums, die Räumlichkeiten, die Wartemöglichkeiten, organisatorische Abläufe, AHA+L-Maßnahmen (Abstand halten, Hygieneregeln beachten, Alltag mit Maske, und Lüften) im Studienzentrum sowie Merkmale der Mitarbeiter*innen wie Freundlichkeit, Engagement und Kompetenz herangezogen.

Studienspezifische Indikatoren

Aufgrund der aktuellen Situation wurde die Erträglichkeit der Probenentnahmen also der venösen Blutentnahme und des Rachenabstrichs (5-stufige Likert-Skala von sehr gut bis sehr schlecht) bewertet.

Wiederteilnahmebereitschaft

Die Abschlussfrage lautete: „Würden Sie wieder an der ELISA-Studie teilnehmen?“ (ja; nein; vielleicht).

Push- und Pull-Faktoren

Im Rahmen von zwei offenen Fragekomplexen konnten Studienteilnehmer*innen Kommentare zu „Was hat Ihnen an der ELISA-Studie gut gefallen?“ und „Was hätte besser gemacht werden können?“, „Was hat Ihnen gefehlt?“ äußern. Aus den quantitativen und qualitativen Angaben werden Push- und Pull-Faktoren identifiziert, die resultierende Verbesserungspotentiale für die Durchführung von Studien implizieren.

Statistische Methoden

Die Daten werden im Folgenden deskriptiv dargestellt, Prozentangaben beziehen sich auf den Anteil jeweils gültiger Werte. Unterscheide der Bewertung zwischen der Befundmitteilung in 2020 und dem Befundportal in 2021 sowie zwischen der Erträglichkeit der Blutentnahme und des Rachenabstrichs wurden mittels Wilcoxon-Tests für gepaarte Stichproben explorativ geprüft. Ein signifikanter Unterschied wurde bei einem p-Wert <0,05 angenommen. Die Freitextfelder zu den Push- und Pull-Faktoren wurden qualitativ einer zusammenfassenden Inhaltsanalyse nach Mayring [12] unterzogen. Dabei orientierte sich die Kodierung deduktiv an den definierten Indikatoren der quantitativen Befragung, ergänzt um induktiv gefundene Faktoren, die für das Thema als bedeutsam angesehen werden bzw. eine Häufigkeit von über 25 aufweisen, wobei die Häufigkeit nicht mit der Wichtigkeit gleichzusetzen ist [13].

Studienregistrierung und Ethikvotum

Die ELISA-Studie (LübEcker Längsschnittuntersuchung zu Infektionen mit SARS–CoV-2 (COVID-19)) wurde im Deutschen Register Klinischer Studien (DRKS) registriert (DRKS-ID: DRKS00023418). Für die Nachbefragung wurde ein Amendment zum Ethik-Votum der ELISA-Studie (Aktenzeichen 20-150) eingereicht. Die Ethikkommission der Universität zu Lübeck äußerte keine Einwände gegen die anonyme Durchführung der Nachbefragung.

Ergebnisse

Von den 3.710 per E-Mail angeschrieben Studienteilnehmer*innen klickten 1.814 (49%) Personen die Nachbefragung an, 1.683 (45%) Personen füllten die Befragung bis zum Ende aus, bei 130 (4%) Personen brachen die Befragung passiv aufgrund von technischen Problemen ab oder sie wurde aktiv abgebrochen. Der Anteil fehlender Werte pro quantitative Variable betrug maximal 2%. Eine Ausnahme bildete die Frage nach Zugangswegen zur Studie, diese konnte anfangs aufgrund einer fehlenden Freischaltung nicht angeklickt werden, sodass nur 765 (45%) der 1.683 Nachbefragten diese Frage beantworten konnten. Die Ergebnisse der Bewertungs-Indikatoren sind in Abbildung 2 visualisiert.
Abbildung 2

Bewertung Merkmale.

Bewertung Merkmale.

Zugang zur Studie

40% (n = 301) der Nachbefragten hatte von der ELISA-Studie aus der Zeitung und 21% (n = 157) durch Freunde, Bekannten oder Arbeitskollegen erfahren. 18% (n = 138) waren im Internet, 7% (n = 53) über soziale Medien, 6% (n = 47) durch Familienmitglieder, weitere 6% (n = 47) im Intranet oder über E-Mail-Verteiler des Arbeitgebers und 2% (n = 14) durch Beiträge im Rund- oder Hörfunk auf die Möglichkeit der Studienteilnahme gestoßen.

Zeitbedarfe

Im Durchschnitt benötigten die Nachbefragten 7,6 Minuten (IQR 3,8-8,1) für die Beantwortung. 1.053 Nachbefragte (64%) waren im Rahmen der Studie sieben Mal ins Studienzentrum zur Probenentnahme gekommen, 354 (21%) zwei bis sechs Mal und 242 (15%) waren einmal gekommen. Für die Anfahrt zum Studienzentrum hatten 814 Nachbefragte (49%) weniger als 15 Minuten, 743 (45%) zwischen 15 und 30 Minuten und 92 (6%) länger als 30 Minuten benötigt. 79% (n = 1.294) gaben an kürzer als 15 Minuten im Studienzentrum gewesen zu sein, ein Fünftel (n = 326) hatte sich 15 bis 30 Minuten und weniger als ein Prozent (n = 15) 30 bis 45 Minuten im Studienzentrum aufgehalten.

Befundmitteilung

Im Rahmen der Studie wurden positive PCR-Befunde für SARS-CoV-2 unmittelbar telefonisch über das Gesundheitsamt mitgeteilt. Über negative PCR-Befunde wurden die Studienteilnehmer*innen innerhalb von zwei bis 14 Tagen zunächst per E-Mail-Nachricht in Kenntnis gesetzt. Im späteren Verlauf konnten negative Befunde über eine Studienplattform abfragt werden, in die dann auch die Antikörperbefunde eingepflegt wurden. Obwohl den Teilnehmer*innen mehrfach mitgeteilt wurde, dass das Ausbleiben eins positiven Befundens binnen 48 Stunden einem negativen Befund entspricht, wurde die persönliche Befundmitteilung als (sehr) wichtig empfunden. Mehr als die Hälfte (n = 861; 52%) der Nachbefragten gaben an, dass die Mitteilung eines negativen PCR-Befunds „sehr wichtig“ für sie war und für 633 (38%) war eine solche Mitteilung „wichtig“. Nur 6% (n = 95) der Befragten hielten die Mitteilung eines negativen PCR-Befundes für „unwichtig“ oder „völlig unwichtig“. Als akzeptable Zeitspanne für die Mitteilung eines negativen PCR Befunds wurden von 782 (47%) der Nachbefragten eine Zeitspanne von ein bis zwei Tage genannt, weiter 551 (33%) nannten drei bis vier Tage und 242 (15%) bis zu einer Woche. Von 91 (5%) der Nachbefragten wurde eine solche Mitteilung als nicht erforderlich erachtet. Auf die Frage „Welche Befunde würden Sie gerne im persönlichen Befundportal sehen?“, gaben 1.511 (91%) der Teilnehmende an, dass sie gern alle ihre Befunde sehen würden, 57 (3,4%) würden nur die positiven Befunde sehen wollen, weitere 22 (1,4%) negative und positive PCR- sowie positive Antikörperbefunde und 11 (0,7%) Teilnehmende möchten gar keine Befunde dort sehen. Bei dieser Frage machten 17 (1%) Personen keine Angabe.

Bewertung Studien-Apps

In der Bewertung der Studien-Apps reicht der Anteil, der mit „sehr gut“ und „gut“ bewerteten Merkmalen von 97% für die Terminvergabe bis 77% für die Befragungsinhalte. Die Analyse der Freitextfelder zur Begründung negativer Bewertungen (schlecht, sehr schlecht) gibt Aufschluss über Verbesserungspotentiale und Bedürfnisse der Studienteilnehmenden. So wurde eine Befragung alle drei Tage als belastend empfunden. Nach Ansicht einiger Nachbefragter fehlte die Möglichkeit, Werte zu übernehmen, oder „keine Veränderungen“ auswählen zu können bzw. die fehlende Adaption der Fragen an die aktuelle Situation. Einige Nachbefragte vermissten eine Erinnerungsfunktion, die an die Befragung oder den Testtermin erinnert. Auch wenn die Bedienbarkeit der Studien-App von 90% mit sehr gut (44%; n = 727) oder gut (45%; n = 752) bewertet wurde, so wurden hierzu 42 Kommentare abgegeben, die auf Probleme mit der App-Bedienung hinweisen, dabei wurden das Erfordernis eines zu komplizierten Passworts, pauschal „die App funktioniert nicht“ und die wiederholt erforderlichen Logins am häufigsten thematisiert.

Bewertung der Kommunikation

Sowohl die sehr umfangreichen Studieninformationen als auch Studienaufklärung vor Ort, die Möglichkeiten des Nachfragens und die Datenschutzmaßnahmen wurden von über 93% der Nachbefragten mit sehr gut oder gut bewertet. Ein Fünftel gab bezüglich der Befundmitteilung mittelmäßige oder schlechte Bewertungen an. Zu diesem Aspekt wurden die meisten Kommentare (n = 44) geäußert, die sich zumeist auf die als zu lang empfundene Zeitspanne bis zur Befundmitteilung bezogen. Die Bewertung der Befundmitteilung über das Befundportal im Jahr 2021, hier wurde unmittelbar nach Eingang des Ergebnisses eine Nachricht über einen neuen Befund verschickt, unterschied sich signifikant (Wilcoxon-Test für gepaarte Stichproben; p < 0,001) zur telefonischen Befundmitteilung im Jahr 2020 zu Gunsten des Befundportals. Auch die Telefon-Hotline, die von 312 (19%) der Nachbefragten genutzt worden war, wurde mit sehr gut (n = 154; 49%) und gut (n = 125; 40%) bewertet. Grund für die wenigen (n = 33; 11%;) nicht so guten Bewertungen resultierten zumeist aus der Nichterreichbarkeit am Wochenende.

Bewertung des Studienzentrums

Das Engagement der Mitarbeiter*innen im Studienzentrum wurde am häufigsten mit sehr gut (n = 1.262; 77%;) bewertet, weitere 366 (22%) gaben ein gut. Ähnliche Bewertungen wurden für die organisatorischen Abläufe und die Erreichbarkeit des Studientestzentrums vergeben. Von 301 (27%) Nachbefragten wurden die Wartemöglichkeiten, die es in den Räumlichkeiten des Studienzentrums nicht gab, mit mittelmäßig oder schlechter bewertet. Aus den 29 Kommentaren dazu geht hervor, dass Warteräumlichkeiten insbesondere bei schlechtem Wetter als ungünstig erachtet wurden. Gleichzeitig wurde aufgrund der AHA+L-Maßnahmen und der ohnehin geringen Wartezeit Verständnis für das Fehlen von Wartemöglichkeiten in Innenräumen geäußert. Eine Nachbefragte fasst zusammen: „Mit Auto Studienzentrum sehr gut erreichbar, mit öffentlichen Verkehrsmitteln aber ungünstig. Wartemöglichkeit im Studienzentrum eher nicht vorhanden, außer draußen im Auto. Allerdings fällt mir kein Ort ein, an dem man die Tests sonst so gut hätte durchführen können. Sehr gut fand ich, dass jeder Testteilnehmer den Testraum von draußen betreten konnte.“ In Bezug auf die Qualifikation der Mitarbeiter*innen im Studienzentrum kommentieren 18 Nachbefragte ihre Bewertung mit „noch unsicher bei der Blutentnahme“ und beschreiben unterschiedliche Abnahmetechnik (n = 9) der Nasen-/Rachenabstriche im zeitlichen Verlauf bzw. in Abhängigkeit von der abnehmenden Person von „sehr oberflächlich bis extrem tief“, von „übervorsichtig bis rabiat“ oder von „kitzlig bis schmerzhaft“.

Studienspezifischer Indikator: Bewertung der Erträglichkeit der Probenentnahmen

Die Erträglichkeit der Abnahme des Nasen-Rachen-Abstrichs wurde in dieser Untersuchung mit einem Mittelwert von 2,1 am schlechtesten bewertet. Im Vergleich zur venösen Blutentnahme mit einem Mittelwert von 1,6 wurde diese als signifikant besser erträglich bewertet (Wilcoxon-Test für gepaarte Stichproben; p < 0,001). Aus diversen Kommentaren geht hervor, dass die Abnahme des Nasen-Rachen-Abstrichs zwar unangenehm, aber erforderlich ist. „Nasen- und Rachenabstrich sind für mich sehr ekelig. In der Nase habe ich das Gefühl, das Stäbchen stecke bereits im Gehirn und im Rachen muss ich mich gefühlt augenblicklich übergeben. Der Würgereiz ist sehr unangenehm. Aber für einen guten Zweck habe ich das jedes Mal gerne ausgehalten.“ Nahezu alle Nachbefragten (n = 1.635; 97%) würden wieder an der ELISA-Studie teilnehmen, 30 (1,8%) vielleicht und zwei nicht. Von 16 (1%) Teilnehmenden fehlte bei dieser Frage die Antwort.

Qualitativ geäußerte Push- und Pull-Faktoren

Insgesamt äußerten sich 1.199 (71%) Nachbefragte zu der Frage „Was hat Ihnen gut an der ELISA-Studie gefallen?“ mit einer oder mehreren Angaben und bestätigten damit zum großen Teil die quantitativ erhobenen Daten. So nannten 448 Nachbefragte die sehr gute und durchdachte Organisation bzw. den reibungslosen Ablauf im Studienzentrum. Dabei kamen bei 176 Nachbefragte das Zeitmanagement (keine Wartezeiten, die Einhaltung der Test-Zeitfenster) sowie der erforderliche Zeitaufwand für die Studienteilnahme gut an. 339 Nachbefragte gefielen die freundlichen Mitarbeiter*innen, 114 das kompetente gut geschulte Team und 73 das Engagement der Studiendurchführenden. 294 Nachbefragten gefielen die (kostenlosen) Testmöglichkeiten und 169 Personen die Möglichkeit, etwas für die Allgemeinheit bzw. für die Forschung tun zu können. Dabei wurde oftmals die Win-win-Situation benannt und das passagere Gefühl der persönlichen Beruhigung oder Sicherheit „nicht an Corona erkrankt zu sein“ beschrieben. Die Sinnhaftigkeit der Studie wurde von 102 Nachbefragte genannt, 89 Nachbefragte gefielen das Studiendesign bzw. der frühe Start der Studie. 65 Nachbefragte bedanken sich für die Durchführung der Studie bzw. die Teilnahmemöglichkeit, die von 94 Nachbefragte als unkompliziert bzw. unbürokratische beschrieben wurde. Die verständlichen Informationen bei der Studienaufklärung bzw. per E-Mail, Telefon-Hotline und Newsletter gefielen 72 Nachbefragte explizit. 84 Nachbefragte fanden die digitale Studienabwicklung vom Einladungsmanagement bis zur Terminvergabe bzw. Terminverschiebemöglichkeit oder die Befragung per App gut. Gut kamen auch die Incentives in Form von Lübecker Marzipan und Bonbons an (n = 86) sowie der lokale Bezug der Studie („Forschung an der Lübecker Uni“, „Beteiligung der Lübecker Bevölkerung“, „Nutzung einer App eines Lübecker Start-Ups“; n = 26). Auf die Fragen „Was hätte besser gemacht werden können? Was hat Ihnen gefehlt?“ reagierten 990 Nachbefragte mit einem oder mehreren Stichpunkten oder sie formulierten längere Aussagen. Darin bekundeten 333 Nachbefragte, dass ihnen nichts gefehlt hat oder sie keine Verbesserungsvorschläge haben. Die meisten qualitativen Statements bestätigen die bereits beschriebenen Ergebnisse wie z. B. die als zu lang empfundene Zeit bis zur Befundmitteilung (n = 183) und den Wunsch nach Kenntnisnahme sämtlicher persönlicher Testergebnissen (n = 74). 83 Nachbefragte wünschen Informationen über Zwischen- und Endergebnisse der Studie z. B. in den regelmäßigen Newslettern. In Bezug auf die App-Befragungen kommentierten 71 Nachbefragte die Fragestellungen und/oder -inhalte als zu wenig situationsadaptiert und in Teilen als zu wenig differenziert oder unklar formuliert. 41 Nachbefragte würden die Studie, insbesondere die Tests, gern verlängern oder ausweiten. Wie die Verbesserung des Wartebereichs mit Wind- und Wetterschutz (n = 36), wurde die Gebrauchstauglichkeit der Befragungs-App thematisiert (n = 83), kritisiert wurden z. B. die wiederholt erforderliche Passworteingabe oder die Erforderlichkeit der Erstellung eines zu komplizierten Passworts, vorgeschlagen wurden digitale Terminerinnerungen (auch für die Testtermine), der Einsatz von Umfragelogiken (z. B. Verzweigfragen), die Möglichkeit Werte übernehmen zu können oder die Ankündigung von App-Updates. Weitere Ideen waren: „Testergebnisse mit der Corona-Warn-App verbinden“, „eine App für alles“, „Austausch mit anderen Studienteilnehmer*innen ermöglichen“, „Dankeschön, auch für das Ausfüllen der Fragebögen“, „Erstattung der Fahrkosten. Bus ist halt teuer. Jedes Mal ca. 7 € hin und zurück“, „Es hätten auch Schnelltests angeboten werden sollen - quasi als Bonus“ „bei der zweiten Fehlpunktion sollte abgegeben werden“. Tabelle 2 fasst förderliche Faktoren für die Durchführung von Kohortenstudien zusammen, die aus den quantitativen Angaben und den genannten Push- und Pull-Faktoren für die Studienteilnahme aus Sicht der Nachbefragten resultieren und Verbesserungsmöglichkeiten implizieren.
Tabelle 2

Push-Faktoren für die Studienteilnahme aus Sicht der Nachbefragten.

Push-Faktoren aus Sicht der Nachbefragten

Sinnhaftigkeit wird gesehen

Forschungsfrage von allgemeinem Interesse

Ansprache auf unterschiedlichen Kanälen

Beitrag für die Gesellschaft kann geleistet werden

persönlicher Nutzen

Win-win-Situation für Forschung und Person

Informationen sind transparent, jederzeit öffentlich zugänglich

Homepage mit allen Informationen zur Studie (inklusive FAQs), aktuellen Meldungen ggf. Zwischenergebnisse

Möglichkeiten der digitalen Terminvergabe und -verschiebung

Terminerinnerung für Fragebögen und Testterminen an das Handy

Ankündigungen von Software-Updates

Telefon-Hotline (möglichst auch am Wochenende und in Randzeiten)

Freundlichkeit, Engagement, Höflichkeit, Kompetenz der Mitarbeiter*innen

Geschulte Mitarbeiter*innen, die umfänglich auskunftsfähig und -bereit sind

Vorgehen bei unerwarteten Ereignissen vorab klären

Befundmitteilung innerhalb von zwei Tagen

Geeignet Räumlichkeiten: Testräume einzeln von außen zu betreten

Sichtbare Einhaltung der AHA+L-Maßnahmen

Incentives (persönliche Testergebnisse, Busticket, Marzipan)

Lokaler Bezug (Studie am Heimatort, App und Incentives vom lokalen Anbieter)

Zeitbedarf für Studienteilnahme gering

Keine Wartezeiten

Push-Faktoren für die Studienteilnahme aus Sicht der Nachbefragten. Sinnhaftigkeit wird gesehen Forschungsfrage von allgemeinem Interesse Ansprache auf unterschiedlichen Kanälen Beitrag für die Gesellschaft kann geleistet werden persönlicher Nutzen Win-win-Situation für Forschung und Person Informationen sind transparent, jederzeit öffentlich zugänglich Homepage mit allen Informationen zur Studie (inklusive FAQs), aktuellen Meldungen ggf. Zwischenergebnisse Möglichkeiten der digitalen Terminvergabe und -verschiebung Terminerinnerung für Fragebögen und Testterminen an das Handy Ankündigungen von Software-Updates Telefon-Hotline (möglichst auch am Wochenende und in Randzeiten) Freundlichkeit, Engagement, Höflichkeit, Kompetenz der Mitarbeiter*innen Geschulte Mitarbeiter*innen, die umfänglich auskunftsfähig und -bereit sind Vorgehen bei unerwarteten Ereignissen vorab klären Befundmitteilung innerhalb von zwei Tagen Geeignet Räumlichkeiten: Testräume einzeln von außen zu betreten Sichtbare Einhaltung der AHA+L-Maßnahmen Incentives (persönliche Testergebnisse, Busticket, Marzipan) Lokaler Bezug (Studie am Heimatort, App und Incentives vom lokalen Anbieter) Zeitbedarf für Studienteilnahme gering Keine Wartezeiten

Diskussion

Mit der Nachbefragung der Studienteilnehmer*innen wurden definierte teilnehmerorientierte allgemeine und studienspezifische Qualitätsindikatoren zu Studienstrukturen und -prozessen bewertet, um mögliche Ressourcen für die Durchführung künftiger bevölkerungsbezogener Studien mit ähnlichem Design zu eruieren. Die Nachbefragung fokussierte sich auf praktische Durchführungsindikatoren der ELISA-Studie und deren Bewertung aus Sicht der Nachbefragten und möchte damit deren Perspektive in dem epidemiologischen Forschungsprozess ergänzen. Insgesamt sind die gewählten Indikatoren vorwiegend positiv bewertet worden, die qualitativen Angaben liefern aber Ideen zur Optimierung und zu weniger bekannten Aspekten der Studiendurchführung im Allgemeinen und insbesondere auch für digitale Befragungen. Mit den definierten Indikatoren werden einige wenige Qualitätsmerkmale aus dem von Schmitt et al. [3] konsentiertem Anforderungskatalog für epidemiologische Kohortenstudien zur Studienvorbereitung und Studiendurchführung wie die Rekrutierung von Proband*innen, Soft-Skills, Räumlichkeiten, Kommunikation und Ergebnisrückmeldungen aus Sicht von Teilnehmenden berücksichtigt. Darüber hinaus werden Merkmale, die eher für Studienteilnehmende relevant sind wie die Zeitbedarfe, die Erreichbarkeit des Studienzentrums, die Erträglichkeit der Probenentnahme und die Einhaltung der AHA+L-Maßnahmen berücksichtigt. Diese Qualitätsmerkmale inkludieren auch den angemessenen Einbezug von Betroffenen, der in der Leitlinie 11 der Empfehlungen für GEP postuliert wird. In der Literatur wird darauf verwiesen, dass kein allgemein anerkannter Standard für die Beurteilung der Eignung von Qualitätsindikatoren existiert [14], [15]. Obwohl der zitierte Anforderungskatalog Orientierungspunkte zur Eigenbeurteilung geeigneter Qualitätsindikatoren liefert und als nicht statisch anzusehen ist, wäre ein spezifiziertes Kurzinventars für Kohortenstudien mit Referenzwerten wünschenswert gewesen, da unter den pandemischen Bedingungen und unter ökonomischen Gesichtspunkten die Operationalisierung von Qualitätsindikatoren unter Einbezug von Studienteilnehmer*innen und externer Expertise zu aufwendig erscheinen.

Studienteilnahme und Zugang zur Studie im Kontext

Die Auswirkungen der SARS-CoV-2-Pandemie auf Umfragehäufigkeit und deren Rücklaufquoten wurden in einer Studie von de Koning et al. untersucht [16]. Sie zeigt einen deutlichen Anstieg der Verbreitung von Umfragen insbesondere über soziale Medien während der SARS-CoV-2-Pandemie und niedrigere Rücklaufquoten als vor der SARS-CoV-2-Pandemie (34,5 vs. 51,0%). Die Untersuchung schloss 255 Artikel zu neurochirurgischen Umfragen und deren Rücklaufquoten ein, von denen ein Drittel während der Pandemie veröffentlicht wurde [16]. Rücklaufquoten von bevölkerungsbezogenen Querschnittsbefragungen während der SARS-CoV-2-Pandemie, die auf bekannte E-Mail-Adressen zurückgreifen konnten, schwanken in der Literatur stark. So beteiligten sich z. B. 4% der französische Student*innen an einer Online-Umfrage zur psychischen Gesundheit [17]. An einer Online-Befragung zum Wissen und der Wahrnehmung von COVID-19 nahmen 64% bzw. 51% der Personen teil, die sich bei Prolific Academic zur Teilnahme an der Online-Forschung mit Wohnsitz in den Vereinigten Staaten bzw. im Vereinigten Königreich angemeldet hatten, einer geschichteten bevölkerungsrepräsentativen Stichprobe entstammten und innerhalb jeder Schicht zuerst geantwortet hatten [18]. Die in unserer Nachbefragung beobachtete Teilnahmerate (45%) im Vergleich zu den Teilnahmeraten der Testungen auf SARS-CoV-2 geringere aber immer noch gute Teilnahmerate zeigt, dass bei einem wahrgenommenen hohen persönlichen Nutzen eine deutlich höhere Studien-Teilnahmebereitschaft trotz höherem Aufwand beobachtet werden kann. Als reduzierender Faktor für die Teilnahme hatte sich im Verlauf der ELISA-Studie bereits die Wahl des Untersuchungszeitpunktes gezeigt, so wurde beim fünften Testzeitpunkt die niedrigsten Teilnahmerate (75%) gemessen. Zu diesem Zeitpunkt waren in Schleswig-Holstein Ferien und die Zahl der COVID-19 Infektionen sank. Die Sinnhaftigkeit der ELISA-Studien und die Win-win-Situation einer Studienteilnahme, zum einen etwas für die Forschung beitragen zu können und zum anderen selbst auf SARS-CoV-2 getestet zu werden, kamen bei vielen Nachbefragte neben dem lokalen Bezug der Studie, der Atmosphäre im Studienzentrum und den kleinen Incentives gut an. Förderlich für die Studien-Adhärenz dürften darüber hinaus die realisierten kurzen Aufenthaltszeiten im Studienzentrum, gerade unter dem Aspekt der Infektionsschutzmaßnahmen, und die überwiegend kurzen Anfahrtswege zum Studienzentrum gewesen sein. Zum Infektionsschutz und bei geplanten und gut zu realisierenden Terminen im 15-Minuten-Takt wurden hier keine Warteräume im Innenbereich angeboten und die Studienteilnehmer*innen im Vorfeld darüber informiert. Trotzdem wurde dieser Umstand von Nachbefragten häufig aufgegriffen, um Wind- und Wetterschutzmaßnahmen und Sitzmöglichkeiten vor dem Testzentrum vorzuschlagen. Überraschend hoch war der Anteil an Nachbefragten, die über die Möglichkeit der ELISA-Studienteilnahme aus der lokalen Presse erfahren hatte. Eine ausschließliche Ansprache über digitale Medien hätte deutlich weniger potenzielle Studienteilnehmende erreicht und die Ziehung einer alters- und geschlechtsrepräsentativen Bevölkerungsstichprobe für Lübeck und Umgehung wäre möglicherweise schlechter gelungen.

Digitale Anwendungen in Studien und ihre Verbesserungspotentiale

Die Registrierung auf einer existierenden App, um an der Studie teilnehmen zu können, wurde gut angenommen und von nicht wenigen Personen als besonders positiv gewertet. Ebenso kam die Terminvergabe über eine Terminvergabe-App bei den Nachbefragten sehr gut an und nur selten bedurfte es der telefonischen Unterstützung, das zeigt die Nutzbarkeit solcher Anwendungen auch in wissenschaftlichen Studien. Erforderlich bleiben aber, je nach Fragestellung, Angebote der Studienteilnahme für Personen mit unzureichender digitaler (Health) Literacy oder Nutzungskompetenzen (Bedienkompetenzen) und bei nicht vorhandenen Technologien, um eine digitale Ausgrenzung von der Teilnahme an wissenschaftlichen Studien durch das Zusammenspiel verschiedener Ungleichheitsfaktoren wie Alter, Geschlecht, Bildung, kulturellem Hintergrund, Institutionalisierung der Person und geografische Lagen (z. B. ohne oder mit unzureichender Internetanbindung) zu vermeiden [19], [20], [21], [22]. Andererseits konnten durch die gestufte digitale Rekrutierung für die ELISA-Studie eine bevölkerungsrepräsentative Kohorte und eine Risikogruppen (Personen mit vielen beruflich bedingten Kontakten) rekrutiert werden. Verbesserungspotentiale hinsichtlich Usability der verwendeten digitalen Anwendungen betreffen benutzerfreundlichere, datenschutzkonforme Identifikationslösungen, Terminerinnerungsmeldungen, sowohl für die iterativen Befragungen in der ELISA-Studie als auch für die Testtermine, Ankündigungen von Software-Updates und, wenn inhaltlich berechtigt, die Übernahme von Werten früherer Eingaben. Andere Dimensionen von Usability wie Ladezeiten, Content, Design oder Strukturen wurden im Wesentlichen von den Nachbefragten nicht thematisiert, dies aber möglicherweise auch, weil diese Aspekte und die Studien-Homepage aus Gründen der Befragungslänge nicht explizit im Fragebogen aufgegriffen wurden und Nachbefragte damit gedanklich nicht in diese Richtung gelenkt wurden. Hinweise aus der Kognitionspsychologie und der Verhaltensökonomie besagen, dass Befragte bei ihrer Antwortformulierung mitunter die Ansprüche an die Antwortqualität den wahrgenommenen limitierenden Rahmenbedingungen anpassen [23], [24]. Ebenso kann die Formulierung und Reihenfolge von Fragen Einfluss auf ihr Verständnis und die Beantwortung ausüben, da sie den Kontext für nachfolgende Fragen bilden (sogenannte Ausstrahlungseffekte) [25], [26], [27]. Forschung zu Online-Befragungen mittels Eye-Tracking konnte zudem zeigen, dass die Wahrscheinlichkeit für die Wahl obenstehender Antwortmöglichkeiten in längeren Auswahllisten mit dem Alter der befragten Person und der Länge der Auswahlliste steigt [28] und mit der kognitiven Fähigkeit der befragten Person sinkt [29]. Während eine mögliche Beeinflussung durch eine interviewende Person bei Online-Befragungen entfällt, ist das Antwortverhalten durch die Anwesenheit und die Beeinflussung durch weitere Personen möglich. Studien, die diese Effekte in Interviewstudien untersucht haben, berichten positive Auswirkungen auf die Beantwortung von Faktenfragen, da z. B. Ehepartner dazu beitragen, dass zutreffende Angaben gemacht werden [30] und somit die Datenqualität verbessert wird [31]. Diese und weitere Faktoren der Beeinflussbarkeit von Antworten sind bei Durchführung von Online-Befragungen nicht zu kontrollieren und müssen daher bei der Interpretation der Ergebnisse kritisch hinterfragt werden. Bei der ELISA-Studie waren die intermittierenden Befragungen und die Nachbefragung kurz, einfach formuliert und auf lange Auswahllisten wurde verzichtet. In der Datenkontrolle fanden sich keine inkonsistenten Angaben. Digitale Lösungen für die Durchführung von wissenschaftlichen Studien aus einer Hand, anders als in der ELISA-Studie, für alle studienrelevanten Anliegen, z. B. Terminvergabe, Befundmitteilung, Ausfüllen eines Fragebogens, erscheinen mehr als wünschenswert, um Studienteilnehmer*innen nicht zu verwirren und zusätzlichen Kommunikationsaufwand zu vermeiden. Der Aufbau einer datenschutzkonformen Portal-Lösung u. a. zur zeitnahen Befundmitteilung wurde im Forscherteam hinsichtlich Zumutbarkeit einer solchen Art kontrovers diskutiert. Positive Befunde im Rahmen der ELISA-Studie wurden bei insgesamt niedriger COVID-19-Inzidenz in der Studienregion stets primär über das Gesundheitsamt telefonisch mitgeteilt. Neun von zehn Nachbefragten wünschen sich einen zeitnahen Zugriff auf ihre sämtlichen Testergebnisse und halten die Befundmitteilung von negativen PCR-Tests für sehr wichtig oder wichtig. Diese Ergebnisse unterstützen Ergebnisse einer Studie aus dem Jahr 2015, die Patientenpräferenzen für die Befundmitteilung analysiert hat und zeigt, dass Teilnehmende Präferenzen für die Mitteilung von Testergebnissen durch eine nicht persönliche Kommunikation in Abhängigkeit vom Test haben. Danach bevorzugen Personen passwortgeschützte Websites, persönliche Voicemails, persönliche E-Mails und Briefe gegenüber Heim-Voicemails, Fax und Mobiltelefon-Textnachrichten [32]. Altersabhängige Technologie-Unterschiede zwischen persönliche E-Mail- und passwortgeschützte Websites wurden in dieser Untersuchung nicht gefunden. Frühere Untersuchungen hatten gezeigt, dass junge Patient*innen die elektronische Post als Zustellungsmethode deutlich mehr bevorzugen als ältere Patienten, für die die Post die erste Wahl der Benachrichtigungsmethode ist [33]. Selbst für hochsensible Testergebnisse wie für sexuell übertragbare Nicht-HIV-Infektionen und genetische Ergebnisse bevorzugen Patient*innen Patientenportale [34].

Studienspezifischer Indikator: Erträglichkeit der Probenentnahme

Anders als erwartet empfanden Nachbefragte die venöse Blutentnahme besser erträglich als die Nasen-Rachenabstriche. Während die meisten Personen über subjektive Erfahrungen einer Blutentnahme verfügen oder antizipieren können, was auf sie zukommt, und die Blutentnahme beobachtet können, sind Nasen-Rachenabstriche erst einmal unbekannt und können nicht direkt beobachtet werden, in unangenehmer Position werden unter Umständen ein Würgereiz und/oder ein Tränenfluss ausgelöst. Möglicherweise ist darüber hinaus ein relatives Gefühl des Ausgeliefertseins für die ungünstigere Bewertung der Erträglichkeit der Nasen-Rachenabstriche verantwortlich. Die Angaben der Nachbefragten zur Durchführung der Nasen-Rachenabstriche zeigen aber auch eine individuelle Bandbreite der Ausführungstechniken und individuellen Erträglichkeit. Hier ist im Interesse der Ergebnisqualität der Tests eine gute Schulung und Kontrolle von Ausführenden zur standardisierten Abnahme notwendig.

Limitationen

Limitierend sei angemerkt, dass ein Non-response-Bias der Nachbefragung durch Auswahl- und Selektionsverzerrung nicht ausgeschlossen werden kann. Insbesondere weniger computer- und smartphonaffine Personen und Personen ohne Unterstützung könnten sowohl auf die Teilnahme an der ELISA-Studie als auch an der Nachbefragung verzichtet haben, wodurch die Ergebnisse nicht verallgemeinerbar sind. Das Studiendesign der ELISA-Studie schloss als Teilprojekt des B-FAST Verbundprojekts Nationales Forschungsnetzwerk der Hochschulmedizin zu COVID-19 minderjährige Personen aus, da dieser Personenkreis und auch Bewohner*innen von Pflegeeinrichtungen in anderen Teilprojekten betrachtet wurden. Unter den gegeben Durchführungsbedingungen während der SARS-CoV-2-Pandemie, bei der berichteten Teilnahmerate, der geringen Rate an fehlenden Werten und der berichteten Aufenthalts-Häufigkeit im Studienzentrum erscheinen die gewonnen Daten zur Analyse der definierten Qualitätsindikatoren jedoch als geeignet. Die erneute Abfrage von soziodemografischen Merkmalen bei der Nachbefragung wäre zur Abschätzung des Non-respons-Bias von Vorteil gewesen, hätte aber die Befragungsdauer verlängert und die Gefahr des Befragungsabbruchs erhöht. Letztendlich kann ein Faktor, der für viele Nachbefragte über die Befragungsteilnahme entscheidet, auch zur Verzerrung der Umfrageergebnisse führen. Einige Personen werden z. B. aufgrund des Zwecks oder der Kürze der Umfrage stimuliert zu antworten, andere durch Anreize [35] oder Vorabinformationen [36]. Mit den gewählten Indikatoren gelingt die Deskription einzelner Gesichtspunkte der Qualitätssicherung aus Sicht von Studienteilnehmer*innen. Eine vollständige Aufbereitung aller Studienstrukturen und -prozesse im Detail zu analysieren, würde einen enormen Aufwand bedeuten [37], daher erfolgte eine Fokussierung auf Indikatoren, die unserer Meinung nach an Relevanz für epidemiologische Studien gewinnen werden. Weitere Einflüsse wie das Forschungsanliegen oder Umfeldfaktoren bleiben aus Gründen der Ökonomie unberücksichtigt. Wie bereits einleitend beschrieben, stand kein geeigneter standardisierte Fragebogen zur Verfügung. Die Validierung des Fragebogens steht noch aus. Möglicher Weise weisen die Items Deckeneffekte auf.

Schlussfolgerungen

Planer*innen von bevölkerungsbezogenen Kohortenstudien können von den beschriebenen Erfahrungen der Studienteilnehmer*innen mit der Studienteilnahme profitieren, Motive für die initiale und fortlaufende Studienteilnahme in Kohortenstudien sollten evaluiert und nach Möglichkeit explizit bedient werden, um so interessierende Studienkohorten initiieren und längerfristig fortführen zu können. Dazu sollten im digitalen Zeitalter Studienteilnehmer*innen im Zusammenhang mit der Studienteilnahme positive Erfahrungen sammeln. Ein gutes Zeitmanagement, kurze Reaktionszeiten, technische Support-Angebote und zusätzliche Services wie eine Studien-Homepage mit FAQs sowie eine zeitnahe individualisierte Befundmitteilung und transparente allgemeinverständliche Informationen über Studienergebnisse im Verlauf sollten obligate Bestandteile von großen Kohortenstudien sein. Digitale Lösungen kommen bei Studienteilnehmer*innen gut an, sollten aber studienspezifisch gut angepasst werden.

Finanzierung

Die ELISA-Studie wird gefördert durch das Nationale Forschungsnetzwerk der Universitätsmedizin (B-FAST), das Land Schleswig-Holstein, Stiftungen und Vereine und durch die Lübecker Bevölkerung (Crowdfunding).

Danksagung

Bis Ende April 2021 zählte die WHO weltweit 200 Millionen bestätigte COVID-19-Infektionen, fast vier Millionen Tote und mehr als 2,4 Milliarden verabreichte Impfdosen [38]. Noch immer mangelt es an gesicherten epidemiologischen Erkenntnissen zur Ausbreitung von Infektionen mit SARS-CoV-2. Um mehr Evidenz zu erlangen, ist auch weiterhin die Bereitschaft von vielen Menschen nötig, sich an Studien zu beteiligen. Dank gilt daher allen Studienteilnehmer*innen der ELISA-Studie!

Interessenkonflikt

Die Autor*innen geben an, dass keine Interessenskonflikte vorliegen.

Autorenschaft

Elke Peters hat die Nachbefragung geplant, die Daten ausgewertet und das initiale Manuskript geschrieben. Aiham Alabid hat die technische Umsetzung der Befragung durchgeführt und die Auswertung unterstützt. Susanne Elsner, Alexander Katalinic, Christine Klein, Jan Rupp und Max Borsche haben an der Überarbeitung und kritischen Diskussion des Artikels mitgewirkt
  19 in total

1.  [Memorandum III, Part 3: Quality of Care and Patient Safety Research Methods].

Authors:  Max Geraedts; Saskia E Drösler; Klaus Döbler; Maria Eberlein-Gonska; Günther Heller; Silke Kuske; Tanja Manser; Brigitte Sens; Jürgen Stausberg; Matthias Schrappe
Journal:  Gesundheitswesen       Date:  2017-09-28

2.  Direct-to-patient laboratory test reporting: balancing access with effective clinical communication.

Authors:  Michael J Young; Ethan Scheinberg; Harold Bursztajn
Journal:  JAMA       Date:  2014-07       Impact factor: 56.272

3.  Requirements and Application Guide for the Use of Quality Indicators in Medical Care: Results of a Systematic Review.

Authors:  S Rode; V Ries; T Petzold; U Buch; F Untersweg; B Fischer
Journal:  Gesundheitswesen       Date:  2016-05-04

4.  Understanding and Responding to Health Literacy as a Social Determinant of Health.

Authors:  Don Nutbeam; Jane E Lloyd
Journal:  Annu Rev Public Health       Date:  2021-10-09       Impact factor: 21.981

5.  [Quality standards for epidemiologic cohort studies : An evaluated catalogue of requirements for the conduct and preparation of cohort studies].

Authors:  Carsten Oliver Schmidt; Christine E M Krabbe; Janka Schössow; Klaus Berger; Cornelia Enzenbach; Panagiotis Kamtsiuris; Gina Schöne; Robin Houben; Christa Meisinger; Fabian Bamberg; Thomas Hendel; Sonja Selder; Michael Nonnemacher; Susanne Moebus; Jürgen Stausberg
Journal:  Bundesgesundheitsblatt Gesundheitsforschung Gesundheitsschutz       Date:  2018-01       Impact factor: 1.513

6.  Eye-Tracking Data: New Insights on Response Order Effects and Other Cognitive Shortcuts in Survey Responding.

Authors:  Mirta Galesic; Roger Tourangeau; Mick P Couper; Frederick G Conrad
Journal:  Public Opin Q       Date:  2008-12-12

7.  Effects of Sequential Prepaid Incentives on Response Rates, Data Quality, Sample Representativeness, and Costs in a Mail Survey of Physicians.

Authors:  Jennifer Dykema; John Stevenson; Nadia Assad; Chad Kniss; Catherine A Taylor
Journal:  Eval Health Prof       Date:  2020-09-14       Impact factor: 2.329

8.  A Patient-Centered Approach to Comparative Effectiveness Research Focused on Older Adults: Lessons From the Patient-Centered Outcomes Research Institute.

Authors:  Noah R Mason; Harold C Sox; Evelyn P Whitlock
Journal:  J Am Geriatr Soc       Date:  2018-12-26       Impact factor: 5.562

9.  Impact of patient and public involvement on enrolment and retention in clinical trials: systematic review and meta-analysis.

Authors:  Joanna C Crocker; Ignacio Ricci-Cabello; Adwoa Parker; Jennifer A Hirst; Alan Chant; Sophie Petit-Zeman; David Evans; Sian Rees
Journal:  BMJ       Date:  2018-11-28

10.  Use of Rapid Online Surveys to Assess People's Perceptions During Infectious Disease Outbreaks: A Cross-sectional Survey on COVID-19.

Authors:  Pascal Geldsetzer
Journal:  J Med Internet Res       Date:  2020-04-02       Impact factor: 5.428

View more

北京卡尤迪生物科技股份有限公司 © 2022-2023.