<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <p><br>
    </p>
    <p>this has to be essentially correct, I think. If you think about
      it, scores (at least well designed ones) are things whose
      'questions' have only known answers (think Apgar, GCS etc), each
      of which has objective criteria that can be provided as training
      to any basically competent person. When score / scale is captured
      at clinical point of care, any trained person should convert the
      observed reality (baby's heartrate, accident victim's eye
      movements etc) into the same value as any other such person. In
      theory, a robot could be built to generate such scores, assuming
      the appropriate sensors could be created.</p>
    <p>With 'true' questionnaires, the questions can be nearly anything.
      For example, my local GP clinical has a first time patient
      questionnaire containing the question 'have you ever had heart
      trouble?'. It's pretty clear that many different answers are
      possible for the same physical facts (in my case, occasional
      arrhythmia with ventricular ectopics whose onset is caused by
      stress, caffeine etc; do I answer 'yes'? - maybe, since I had this
      diagnosed by the NHS, or maybe 'no', if I think they are only
      talking about heart attacks etc).</p>
    <p>My understanding of questionnaires functionally is that they act
      as a rough (self-)classification / triage instrument to save time
      and resources of expensive professionals and/or tests.</p>
    <p>There is some structural commonality among questionnaires, which
      is clearly different from scores and scales. One of them is the
      simple need to represent the text of the question within the model
      (i.e. archetype or template), whereas this is not usually
      necessary in models of scores, since the coded name of the item
      (e.g. Apgar 'heart rate') is understood by every clinician.</p>
    <p>Whether there are different types of questionnaires semantically
      or otherwise, I don't know.</p>
    <p>- thomas<br>
    </p>
    <br>
    <div class="moz-cite-prefix">On 05/06/2017 09:48, William Goossen
      wrote:<br>
    </div>
    <blockquote
      cite="mid:326e7401-5b6d-276c-03d9-256742d61cbf@results4care.nl"
      type="cite">Hi Heather,
      <br>
      <br>
      the key difference is that the assessment scales have a scientific
      validation, leading to clinimetric data, often for populations,
      but e.g. Apgar and Barthell are also reliable for individual
      follow up measures.
      <br>
      <br>
      a simple question, answer, even with some total score, does
      usually not have such evidence base. I agree that in the data /
      semantic code representation in a detailed clinical model it is
      not different.
      <br>
      <br>
    </blockquote>
    <br>
    <div class="moz-signature">-- <br>
      <small>
        Thomas Beale<br>
        Principal, <a href="http://www.arssemantica.com">Ars Semantica</a><br>
        Consultant, ABD Team, <a
          href="https://intermountainhealthcare.org/">Intermountain
          Healthcare</a><br>
        Management Board, Specifications Program Lead, <a
          href="http://www.openehr.org">openEHR Foundation</a><br>
        Chartered IT Professional Fellow, BCS, <a
          href="http://www.bcs.org/category/6044">British Computer
          Society</a><br>
        <a href="http://wolandscat.net/">Health IT blog</a> | <a
          href="http://wolandsothercat.net/">Culture blog</a>
      </small></div>
  </body>
</html>