Sind die Ärzte in USA besser als die Ärzte in Deutschland?

8 Antworten

Definitiv nicht. Es gibt einige sehr angesehen Kliniken in den USA, gerade in großen Städten oder an Universitäten, aber im Schnitt ist die Qualität der medizinischen Versorgung in den USA deutlich schlechter. Und dafür teurer. Kein guter Deal, wenn du mich fragst.

Das kann man doch nicht verallgemeinern, es gibt sicher auch Ärzte in Pakistan die besser sind als so mancher deutscher Arzt.

Es gibt gute und schlechte Ärzte, überall auf der Welt

LouPing  12.09.2020, 12:15

So ist es.

Nein, die sind gleich gut.

Bestimmt nicht