This site uses cookies.
Some of these cookies are essential to the operation of the site,
while others help to improve your experience by providing insights into how the site is being used.
For more information, please see the ProZ.com privacy policy.
This person has a SecurePRO™ card. Because this person is not a ProZ.com Plus subscriber, to view his or her SecurePRO™ card you must be a ProZ.com Business member or Plus subscriber.
Affiliations
This person is not affiliated with any business or Blue Board record at ProZ.com.
Services
Translation
Expertise
Specializes in:
Medical (general)
Medical: Pharmaceuticals
Cosmetics, Beauty
Nutrition
Food & Drink
Livestock / Animal Husbandry
Poetry & Literature
Biology (-tech,-chem,micro-)
Rates
Payment methods accepted
MasterCard
Portfolio
Sample translations submitted: 1
English to Latvian: An invisible unicorn has been grazing in my office for a month… Prove me wrong. General field: Science Detailed field: Medical (general)
Source text - English An invisible unicorn has been grazing in my office for a month… Prove me wrong.
BY MARTIN BURTON // OCTOBER 7, 2016
In the final blog from our Understanding Evidence launch week, Martin Burton explores absence of evidence… Join in the conversation on Twitter @CochraneUK @MartinJBurton #understandingevidence.
Yes – it’s true. I have been hosting the beast unwittingly. Don’t believe me? Prove it! Come and prove that the invisible unicorn does not exist. Maybe when you come you won’t find any evidence that the unicorn has been here. In fact, I suspect you might not. But – I will counter – you just aren’t looking properly, or carefully enough, or for the right sort of evidence. It has been described as ‘a principle of folk logic that one can’t prove a negative’. Proving something doesn’t exist is difficult: perhaps impossible.
Imagine this trial…
In our imaginary trial, how can we prove if this drug helps people to see in the dark?
Imagine a trial to examine the effectiveness of a new drug – we’ll call it unicornal. And let’s imagine that the drug – allegedly – leads to improved vision: an ability to see clearly in a darkened room. Without the drug only about 5% of normal people (1 in 20) can see in these circumstances. To see if the drug works, we take 40 people and randomly allocate them to 2 groups with 20 people in each. One group gets unicornal tablets, the other a dummy, placebo tablet. Nobody knows – neither the people taking the tablets nor the people conducting the experiment – whether or not they are taking unicornal or placebo. We then measure the ability of people to see in the dark. In the group receiving unicornal just one person can do so and similarly in the placebo group one person (as you’d expect).
What can we conclude?
Which of the following is correct?
1. This study shows that unicornal does not improve vision in the dark (or to put it another way – there is evidence that there is no effect of unicornal).
2. This study provides no evidence that unicornal is effective in improving vision in the dark (or – there is an absence of evidence that unicornal is effective).
It can be hard to see the difference between these statements. But one – the first – is about “evidence of absence” and the second is about “absence of evidence”. The first is saying in effect “here is some evidence that allows us to conclude that there is no effect of unicornal”. Whilst the second says “we haven’t found any evidence that unicornal works. Maybe it does, maybe it doesn’t – we just don’t know”.
Absence of evidence
Can you prove there’s no unicorn in this office?
There is a key aphorism: the “absence of evidence is not evidence of absence”. This should be taken to heart by everyone interested in understanding evidence. Where does the unicorn come in? Well, there is (you will find when you arrive) an absence of evidence that my unicorn exists. This is not the same as there being evidence that she doesn’t exist. You simply can’t prove that.
In the same way, the evidence from my small study of 40 patients can’t be taken as proving that unicornaldoes not work (paragraph 1. above). All we can say is that there is no evidence from this study that it does work (paragraph 2).
Let’s dig deeper
But perhaps we should dig a little deeper. Some of you will already be saying “the study was too small, you were never going to show a difference with so few patients”. Well maybe or maybe not. If unicornal had had a very dramatic effect, tripling or quadrupling the number of people who could see in the dark, we may well have seen that even in our small study. In other words when the ‘effect size’ is large or dramatic we may not need a big study. On the other hand, let’s imagine that the “truth” – if only we could flush it out – is that unicornal does improve the proportion of people who can see in the dark, but only marginally. Imagine a group of 10,000 normal people. 5% of them – 500 in all – would be excepted to be able to see in the dark. If the drug helps another 50 to see (an increase from 5% to 5.5%) the chances of working that out on the basis of a small study of 40 patients is nigh on impossible. We “missed out” on detecting that in our study. There really was a benefit of unicornal and a difference between those taking the drug and those not, but we simply did not find it.
Two possibilities
So, when we find no difference between two groups in a trial like this, there are two possibilities;
1. The possibility that there is truly no difference between the groups and however big a trial we do we will never find one. Unicornal has absolutely no effect on vision in the dark
2. The possibility that there is a difference, but that difference is relatively small and we have “missed it” because our study wasn’t powerful enough to find it. By saying not ‘powerful’ enough we often mean that it didn’t include enough people.
What is important?
Whenever you see the statement “we found that the treatment did not work” – beware
There is an important issue here. How big a difference between two groups is important to us? Would it be important to us as a group of researchers or patients, if unicornal leads to an improvement in vision in the dark in 1 in 50 of the people taking it? Well, that depends on a number of things, not least the “down side” of taking the drug (its side effects and costs)? Would our answer be the same if it only produces an improvement in 1 person in 10,000 taking it? This discussion is all about “minimally important effect sizes” and that is another topic for another day.
A warning…
Coming back to absences. Whenever you see the statement “we found that the treatment did not work” – beware. The writers are claiming evidence of an absent effect. They are likely to be wrong. On the other hand, applaud those who say – perfectly reasonably – “we did not find any evidence that the treatment worked” and remind yourself that there may be two reasons for this: that the treatment really doesn’t work, or that the study simply wasn’t powerful enough to find a difference.
What can we say with confidence?
Enough of unicorns and the nebulous, allow me to make a very practical final point. Imagine that you have a study with a million people in each group and still there is no difference between the two. Surely in a case like this we can say there is no difference and that this treatment is “not effective”? Faced with a large body of evidence such as this, we can at least say with confidence that if there is a difference it is very, very small and of no practical significance. And this is what we do when we have a large body of evidence, large numbers of patients and no detectable difference. We can – having done the appropriate statistical tests – conclude that practically speaking the treatment “does not work” because any effect size is trivially small and further studies to look at the treatment’s effectiveness are unnecessary; we are as certain about it as we need or want to be. This is a conclusion that we come to not uncommonly at the conclusion of a large systematic review or RCT.
Translation - Latvian Manā kabinetā jau mēnesi ganās neredzams vienradzis… Pierādiet, ka man nav taisnība!
MARTIN BURTON// 2016. GADA 7. OKTOBRĪ
Šajā pēdējā no mūsu “Understanding Evidence “ sērijas pirmās nedēļas blogiem Martins Bērtons pievēršas pierādījumu neesamībai… Pievienojieties sarunai Tviterī: @CochraneUK @MartinJBurton #understanding evidence.
Jā, tieši tā, es neviļus biju izmitinājis pie sevis šo radījumu. Neticiet man? Tad pierādiet pretējo! Nāciet tik šurp un pierādiet, ka neredzami vienradži neeksistē! Iespējams, ka tad, kad ieradīsieties, jūs neatradīsiet pierādījumus, ka vienradzis te ir bijis. Patiesībā, mani māc aizdomas, ka tieši tā arī notiks. Taču tad es uzstāšu, ka jūs būsiet meklējuši nepareizi vai pārāk pavirši, vai arī nebūsiet meklējuši īstos pierādījumus. Tas ir nodēvēts par “tautas loģikas principu, saskaņā ar kuru neviens nevar pierādīt negatīvo". Pierādīt to, ka jebkas neeksistē, ir grūti, varbūt, ka pat neiespējami.
Iztēlojieties šādu pētījumu….
[attēls]
Kā mēs savā hipotētiskajā pētījumā varam pierādīt, ka šīs zāles palīdz cilvēkiem redzēt tumsā?
Iztēlojieties pētījumu, kura mērķis ir noskaidrot, cik efektīvas ir jaunas zāles, sauksim tās par vienradzīnu. Un pieņemsim, ka šīs zāles - tā tiek apgalvots - uzlabo redzi: piešķir spēju skaidri redzēt aptumšotā istabā. Nelietojot šīs zāles, tikai apmēram 5% (1 no 20) normālu cilvēku spēj redzēt tādos apstākļos. Lai uzzinātu, vai šīs zāles darbojas, mēs ņemam 40 cilvēkus un pēc nejaušības principa iedalām viņus 2 grupās, pa 20 cilvēkiem katrā. Viena no grupām saņem vienradzīna tabletes, bet otra – imitāciju, placebo tabletes. Neviens, ne cilvēki, kas lieto tabletes, ne tie, kas veic eksperimentu, nezina, kurš lieto vienradzīnu, bet kurš - placebo. Pēc tam mēs nosakām cilvēku spēju redzēt tumsā. Vienradzīna lietotāju grupā to spēj tikai viens cilvēks, un tieši tāpat arī placebo grupā (kā jau bija sagaidāms).
Ko mēs varam secināt?
Kas no zemāk minētā atbilst patiesībai?
1. Šis pētījums rāda, ka vienradzīns neuzlabo redzi tumsā (jeb, citiem vārdiem sakot, ir pierādījumi, ka vienradzīns nav iedarbīgs).
2. Šis pētījums nesniedz pierādījums, ka vienradzīns uzlabo redzi tumsā (tātad pierādījumu par to, ka vienradzīns ir iedarbīgs, nav).
Iespējams ir grūti saskatīt atšķirību starp šiem apgalvojumiem. Tomēr viens, pirmais, ir par “neesamības pierādījumu”, bet otrs ir par “pierādījumu neesamību”. Pirmais būtībā vēsta, ka “lūk, ir pierādījumi, kas ļauj secināt, ka vienradzīns nav iedarbīgs”. Savukārt otrais apgalvo “mēs neesam atraduši pierādījumus, ka vienradzīns darbojas. Varbūt tas darbojas, bet varbūt arī ne”.
Pierādījumu neesamība
[attēls]
Vai varat pierādīt, ka šajā kabinetā nav vienradža?
Ir tāds absolūti svarīgs aforisms: “pierādījumu neesamība nenozīmē, ka ir pierādīta neesamība” (absence of evidence is not evidence of absence). Tas ir jāpatur prātā katram, kas ir apņēmies izprast pierādījumus. Bet kāds tam visam sakars ar vienradzi? Redziet (un jūs to sapratīsiet, kad būsiet ieradies), pierādījumu mana vienradža eksistencei nav. Taču tas nenozīmē, ka līdz ar to ir pierādīts tas, ka vienradzis neeksistē. To pierādīt jūs vienkārši nespēsiet.
Tieši tāpat manā mazajā 40 pacientu pētījumā iegūtos pierādījumus nevar uztvert kā pierādījumus tam, ka vienradzīns nedarbojas (1. punkts iepriekš tekstā). Mēs varam apgalvot tikai to, ka minētajā pētījumā nav gūti pierādījumi, ka tas darbojas (2. punkts).
Un tagad iedziļināsimies
Bet varbūt ir vērts nedaudz iedziļināties. Daži no jums noteikti uzstās, ka šis pētījums bija pārāk mazs, un es nekad nebūtu varējis parādīt atšķirību, izmantojot tik nelielu skaitu pacientu. Varbūt, ka jā, bet varbūt arī ne. Ja vienradzīna iedarbība būtu bijusi iespaidīga, ja tas būtu trīskāršojis vai četrkāršojis to cilvēku skaitu, kas var redzēt tumsā, mēs šo iedarbību būtu gluži labi varējuši novērot pat mūsu mazajā pētījumā. Citiem vārdiem sakot, ja efekta lielums ir iespaidīgs vai dramatisks, liels pētījums mums iespējams nebūs nepieciešams. No otras puses, pieņemsim, ka "patiesība", ja vien mēs to spēsim noskaidrot, ir tāda, ka vienradzīns tiešām palielina tumsā redzēt spējīgo cilvēku īpatsvaru, taču tikai nedaudz. Iztēlosimies 10000 normālu cilvēku lielu grupu. 5% no visiem, tātad 500, vajadzētu redzēt tumsā. Ja zāles ļauj redzēt tumsā vēl 50 cilvēkiem (pieaugums no 5% uz 5,5 %), iespēja to noskaidrot mazā, 40 pacientu, pētījumā ir praktiski nereāla. Mēs savā pētījumā to “palaidām garām”. Vienradzīns tiešām sniedza ieguvumu, un atšķirība starp tiem, kas zāles lietoja un tiem, kas tās nelietoja, patiešām bija, taču mēs to vienkārši nekonstatējām.
Divas iespējas
Tātad, ja mēs nekonstatējam atšķirības starp abām grupām tādā pētījumā, kā šis, iespējas ir divas:
1. Iespēja, ka atšķirības starp abām grupām patiešām nav, un, lai cik plašu pētījumu mēs veiksim, mēs tādu nekonstatēsim. Vienradzīnam nav ne vismazākās ietekmes uz redzi tumsā.
2. Iespēja, ka atšķirība pastāv, taču šī atšķirība ir relatīvi maza, un mēs to esam “palaiduši garām”, jo mūsu pētījums nebija pietiekami jaudīgs, lai to konstatētu. Sakot nepietiekami jaudīgs, mēs bieži vēlamies norādīt, ka tajā netika iekļauts pietiekams skaits cilvēku.
Kas ir svarīgi?
Esiet modrs ik reizi, kad ieraugāt paziņojumu: "mēs konstatējām, ka terapija nedarbojas".
Šajā gadījumā vajadzētu noteikti atbildēt uz jautājumu par to, cik liela atšķirība starp abām grupām ir mums svarīga. Vai mums, kā pētnieku un pacientu grupai, būs svarīgi, ja vienradzīns uzlabos redzi tumsā 1 no katriem 50 tā lietotāju? Vispār tas ir atkarīgs no vairākiem faktoriem, tostarp neapšaubāmi no zāļu lietošanas trūkumiem (to blakusparādībām un izmaksām). Vai mūsu atbilde būs tāda pati, ja zāles radīs uzlabojumu 1 cilvēkam no katriem 10000 to lietotāju? Runa ir par "minimālo nozīmīgo efekta lielumu", un tā ir cita tēma aplūkošanai citā reizē.
Brīdinājums…
Atgriežoties pie neesamībām. Esiet modrs ik reizi, kad ieraugāt paziņojumu: "mēs konstatējām, ka terapija nedarbojas". Autori apgalvo, ka ir ieguvuši pierādījumus efekta neesamībai. Viņi iespējams ir kļūdījušies. No otras puses atzinīgi novērtējiet tos, kas apgalvo, un pilnībā pamatoti, ka viņi nav atraduši nevienu pierādījumu tam, ka terapija darbojas. Atgādiniet sev, ka tam var būt divi iemesli: vai nu terapija patiešām nedarbojas, vai arī pētījums nebija pietiekami jaudīgs, lai konstatētu atšķirību.
Ko mēs varam apgalvot ar pārliecību?
Lai paliek vienradži un abstrakcijas, ļaujiet man pielikt ļoti praktisku punktu. Pieņemsim, ka jūsu rīcībā ir pētījums ar miljonu cilvēku katrā grupā, bet atšķirības starp abām vienalga nav. Tādā gadījumā, kā šis, mēs taču varam apgalvot, ka atšķirības nav un šī terapija "nav iedarbīga"? Saņemot lielu pierādījumu apjomu, tādu, kā šis, mēs vismaz varam ar pārliecību apgalvot, ka, ja atšķirība eksistē, tā ir ļoti, ļoti maza, un nav praktiski nozīmīga. Un tas ir tas, ko mēs varam iesākt ar lielu pierādījumu apjomu, lielu skaitu pacientu un nenosakāmu atšķirību. Mēs varam, veicot atbilstošus statistiskus testus, secināt, ka terapija būtībā “nedarbojas”, jo jebkurš efekta lielums ir triviāli mazs, un turpmāki pētījumi terapijas efektivitātes noteikšanai nav nepieciešami; mēs par to esam tik droši, lai pamatotu savu lēmumu un nenožēlotu to. Šis ir secinājums, pie kura mēs nereti nonākam detalizēti un sistemātiski analizējot randomizētus kontrolētus pētījumus.
Apart from my Master of Humanities degree in English Philology I have just 2 years at University of Latvia Faculty of Biology behind me, however I am enthusiastic learner and do not want to leave questions unanswered. And this, I think, is a necessary quality of good translator.
In addition, I like to follow the developments of medicine and pharmacology, so I will certainly pay attention to the texts.