Die schöne neue Welt der künstlichen Intelligenz in der Psychiatrie

"Die Untersuchung der psychischen Gesundheit und die Überwachung von Apps, sozialen Medien und Telefonen werden genutzt, um das gesamte Verhalten zu überwachen und dann durch Computerprogrammierung psychische Störungen und die Notwendigkeit psychiatrischer oder psychologischer Interventionen vorherzusagen." (3)

 

Die diagnostischen Methoden der Psychiatrie sind seit langem als so unwissenschaftlich anerkannt und kritisiert worden wie das Lesen von Teeblättern oder einer Kristallkugel. Es gibt keinen einzigen physischen oder medizinischen Test zur Bestätigung einer psychischen Störung, die im Diagnostic and Statistical Manual for Mental Disorders der American Psychiatric Associations aufgeführt ist. Psychiater wählen buchstäblich Diagnosen ins Leben, die weitgehend auf willkürlich bestimmten Verhaltensweisen beruhen. Das diagnostische System nimmt das Leben von Menschen und ihre Verletzlichkeit sehr genau unter die Lupe.

Statistiken werden über die finanziellen Kosten "unbehandelter" psychischer Erkrankungen geführt, aber niemand stellt die Richtigkeit solcher Statistiken in Frage und warum es trotz der vielen Milliarden Dollar, die für die Erforschung und Behandlung von Fragen der psychischen Gesundheit ausgegeben werden, nur noch schlimmer wird. Damit einher geht ein Multimilliarden-Dollar-Markt für Psychopharmaka, der allein in den USA einen Wert von über 35 Milliarden Dollar pro Jahr hat - und Verbraucher möglicherweise zu lebenslangen Nebenwirkungen und Schäden verurteilt und nicht zu langfristiger Hilfe.

Diese Farce - auf Kosten von Menschenleben - bildet nun die Grundlage für das Screening und die Diagnose der "künstlichen Intelligenz in der psychischen Gesundheit" und hebt Aldous Huxleys "Schöne neue Welt" über eine futuristisch konditionierte Gesellschaft auf eine ganz neue Ebene. Künstliche Intelligenz (KI) wird heute als Mittel vermarktet, um die "wachsende" Zahl von Menschen, darunter auch Kinder und Jugendliche, die als psychisch krank gelten, zu "verhindern" oder schnell zu identifizieren. Und wenn sie "vorbeugen" sagen, kann das auch bedeuten, dass man jemanden als "von psychischer Krankheit bedroht" bezeichnet und ihn unter Drogen setzt, um den Ausbruch der Erkrankung zu verhindern.

Ein Forscherteam der University of Colorado Boulder arbeitet an der Anwendung der maschinellen KI in der Psychiatrie, mit einer sprachbasierten mobilen App, die den psychischen Gesundheitszustand eines Patienten kategorisieren kann. Peter Foltz, Forschungsprofessor am Institut für Kognitionswissenschaften und Mitverfasser der Arbeit, glaubt, dass sie "Werkzeuge schaffen können, die es ihnen ermöglichen, ihre Patienten besser zu überwachen".(1)

"Sprache ist ein kritischer Weg, um psychische Zustände von Patienten zu erkennen", sagt Foltz. "Mit Hilfe mobiler Geräte und KI sind wir in der Lage, Patienten täglich zu verfolgen und diese subtilen Veränderungen zu überwachen".

Um dieses Szenario der schönen neuen Welt zu fördern, könnte die App, wenn sie eine besorgniserregende Veränderung feststellt, den Arzt des Patienten benachrichtigen, damit er sich meldet.  Wie Foltz feststellte, gibt es, da Patienten "oft mit häufigen klinischen Befragungen von geschulten Fachleuten überwacht werden müssen", nicht genügend Kliniker, und die App kann dabei helfen[2].

"Das ist ein Rezept für eine Katastrophe", sagte Ann Cavoukian, die drei Amtszeiten als Datenschutzbeauftragte Ontarios verbrachte und jetzt die angesehene Expertin ist, die das Privacy by Design Centre of Excellence an der Ryerson University in Toronto leitet. "Das sage ich als Psychologin", erklärte sie in einem Interview. "Das Gefühl, ständig beobachtet oder überwacht zu werden, ist das Letzte, was man will"[3], erklärte sie in einem Interview.

Foltz und seine Kollegen entwarfen die mobile App, die die Patienten durch eine Reihe wiederholbarer verbaler Übungen führt, wie das Erzählen einer Geschichte und die Beantwortung von Fragen zu ihrem emotionalen Zustand. Ein KI-System bewertet dann diese Soundbites auf Anzeichen psychischer Belastung, indem es sowohl analysiert, wie sie im Vergleich zu den früheren Antworten der Person aussehen, als auch indem es die Clips mit den Antworten einer größeren Patientenpopulation vergleicht.[4]

Das Team bat menschliche Kliniker, Sprechproben von 225 Teilnehmern - die Hälfte mit schweren psychiatrischen Problemen, die Hälfte gesunde Freiwillige - im ländlichen Louisiana und Nordnorwegen anzuhören und zu beurteilen. Dann verglichen sie diese Ergebnisse mit denen des maschinellen Lernsystems.  sagte Foltz: "Wir stellten fest, dass die KI-Modelle des Computers mindestens so genau sein können wie die von Klinikern"[5].

 

  • Foltz behauptet, dass die folgenden Beispielsätze, die nicht einem logischen Muster folgen, ein kritisches Symptom bei Schizophrenie sein können. Veränderungen im Tonfall oder im Tempo können auf Manie oder Depression hindeuten, und Gedächtnisverlust kann ein Zeichen sowohl für kognitive als auch für psychische Gesundheitsprobleme sein.
  • Henry Nasrallah, ein Psychiater am University of Cincinnati Medical Center, der auch über den Platz der KI in diesem Bereich geschrieben hat, behauptet, dass monotones Sprechen ein Zeichen von Depression sein kann; schnelles Sprechen kann auf eine Manie hindeuten; und eine unzusammenhängende Wortwahl kann mit Schizophrenie in Verbindung gebracht werden. Wenn diese Merkmale stark genug ausgeprägt sind, könnte ein menschlicher Kliniker sie aufgreifen - aber KI-Algorithmen, so Nasrallah, könnten darauf trainiert werden, Signale und Muster zu erkennen, die zu subtil sind, als dass Menschen sie wahrnehmen könnten[6].
  • In einer Studie mit Psychiatern der Columbia University sagte ein mit IBM zusammenarbeitender Neurowissenschaftler, dass sie mit 100-prozentiger Genauigkeit vorhersagen konnten, wer unter einer Population gefährdeter Jugendlicher innerhalb von zwei Jahren die erste Psychose entwickeln würde. IBM entwickelt derzeit eine automatisierte Sprachanalyse-Anwendung, die auf einem mobilen Gerät läuft. Das System nimmt etwa eine Minute der Spracheingabe in Anspruch und nutzt Text-zu-Sprache, fortgeschrittene Analytik, maschinelles Lernen, Technologien zur Verarbeitung natürlicher Sprache und computergestützte Biologie, um in Echtzeit einen Überblick über die psychische Gesundheit des Patienten zu geben[7].

In einem Bericht des National Council for Behavioral Health aus dem Jahr 2017 wird behauptet, dass innerhalb von fünf Jahren das bereits "überlastete" psychiatrische Gesundheitssystem der USA bis zu 15.600 Psychiater fehlen könnte. Einige Anwendungen und Programme zur psychischen Gesundheit enthalten bereits KI wie Woebot - einen app-basierten Moodtracker und Chatbot, der KI und Prinzipien aus der kognitiven Verhaltenstherapie kombiniert -, aber laut den von TIME 2019 befragten Psychiatern wird es wahrscheinlich noch fünf bis zehn Jahre dauern, bis Algorithmen routinemäßig in Kliniken eingesetzt werden.[8]

  •  Woebot ist ein Facebook-integrierter Bot [Gerät/Software, das Befehle ausführt], dessen KI "sich in kognitiver Verhaltenstherapie auskennt". Die klinische Forschungspsychologin Dr. Alison Darcy entwickelte den KI-betriebenen Chatbot mit einem Team von Psychologen und KI-Experten. Mit Woebot tauschen der Benutzer und der Chatbot Nachrichten aus. Dies ermöglicht es der KI angeblich, "über den Menschen zu lernen" und die Gespräche entsprechend zu gestalten. Da diese Technologie in den Facebook-Messenger integriert ist - eine Plattform mit 1,3 Milliarden monatlichen Nutzern und nicht an medizinische Datenschutzregeln gebunden - öffnet der Bot von Darcy die Tür zu psychiatrischer Behandlung für Hunderte von Millionen Menschen, die sonst keinen Zugang erhalten würden.[9] Zu Darcys Geschichte gehört ein mehrjähriger Aufenthalt in der Psychiatrieabteilung der Stanford School of Medicine, und die Forscher an der Stanford University School of Medicine untersuchten die Wirksamkeit von Woebot.[10]
  • Companion und mind.me, sind Apps, die auf einem Telefon oder einer Smartwatch installiert werden können. Sie arbeiten im Hintergrund und ihre KI sammelt 24 Stunden am Tag und ohne direkte Eingabe Daten von ihrem Benutzer. Companion wurde in Zusammenarbeit mit dem U.S. Department of Veterans Affairs entwickelt. Sein Design "hört" der Rede des Benutzers zu, wobei die Anzahl der gesprochenen Worte und die Energie und Wirkung in der Stimme erfasst werden. Die App "beobachtet" auch nach Verhaltensindikatoren, einschließlich der Zeit, der Geschwindigkeit und der Dauer, in der sich eine Person mit ihrem Gerät beschäftigt. [11]

Bei IBM verwenden Wissenschaftler bereits Transkriptionen und Audio-Inputs von psychiatrischen Interviews in Verbindung mit Techniken des maschinellen Lernens, um Muster in der Sprache zu finden, die den Klinikern helfen, Psychosen, Schizophrenie, Manie und Depressionen genau vorherzusagen und zu überwachen. Es wird behauptet, dass es nur etwa 300 Wörter braucht, um Klinikern dabei zu helfen, die Wahrscheinlichkeit einer Psychose bei einem Benutzer vorherzusagen, berichtet IBM[12] Dies ist eine beängstigende Aussicht und etwas, das zuvor von CCHR-Psychiatern aufgedeckt wurde, die raten, ob eine Person psychisch gestört werden könnte, was dazu führen kann, dass starke Antipsychotika verschrieben werden, um den Ausbruch einer Psychose zu verhindern[13].

Dr. John Torous, Vorsitzender des Ausschusses für Informationstechnologie für psychische Gesundheit der American Psychiatric Association, stimmte zu, dass die Diagnostik der psychischen Gesundheit nicht gut genug quantifiziert wurde, um einen Algorithmus zu programmieren[14].

Es wurde eine Überprüfung von 28 Studien zur KI und psychischen Gesundheit durchgeführt, die elektronische Gesundheitsdatensätze, Stimmungsbewertungsskalen, Hirnbildgebungsdaten, neuartige Überwachungssysteme (z. B. Smartphone, Video) und soziale Medienplattformen verwendeten, um psychische Gesundheitskrankheiten wie Depression, Schizophrenie oder andere psychiatrische Erkrankungen sowie Selbstmordgedanken und -versuche vorherzusagen, zu klassifizieren oder in Untergruppen einzuteilen. Während die Studie vorhersagte, könnte es möglich sein, Psychiatrie-Praktikern dabei zu helfen, psychische Erkrankungen objektiver als bisher im DSM-5 neu zu definieren, diese Erkrankungen in einem früheren oder prodromalen [vor dem Auftreten erster Symptome] Stadium zu identifizieren, in dem Interventionen wirksamer sein könnten, und die Behandlungen auf der Grundlage der einzigartigen Merkmale des Individuums zu personalisieren. Allerdings ist Vorsicht geboten, um eine Überinterpretation vorläufiger Ergebnisse zu vermeiden, und es ist mehr Arbeit erforderlich, um die Kluft zwischen der Forschung zur AI in der psychiatrischen Forschung und der klinischen Versorgung zu überbrücken[15].

Sogar ein Artikel in Psychiatry Online weist darauf hin, dass "Diskussionen über künstliche Intelligenz im Gesundheitswesen Bedenken über die Entmenschlichung von heilenden Beziehungen aufgeworfen haben". Das Hauptargument war jedoch, dass "computergenerierte Empfehlungen eine falsche Autorität tragen können, die sich über das menschliche Expertenurteil hinwegsetzen würde" und "falsche Hoffnungen weckt, dass Maschinen die Geheimnisse der psychischen Gesundheit und der psychischen Krankheit erklären"[16] Der eigentliche Punkt ist jedoch, dass das DSM 5 und die Fähigkeit der Psychiatrie, jede psychische Störung zu diagnostizieren, nicht auf der Wissenschaft beruht; sie beruht auf willkürlichen Launen, und die KI wird dies nur noch verschlimmern.

Ein "Algorithmus des maschinellen Lernens" ist bereits geschaffen. In einem Artikel heißt es: "In Zukunft könnten Patienten mit einem gebrochenen Arm ins Krankenhaus kommen und die Einrichtung mit einem Gips und einem Zettel mit einer obligatorischen psychiatrischen Sitzung verlassen, weil sie ein erhöhtes Selbstmordrisiko aufweisen".

Vorläufigen Studien zufolge "könnten Veränderungen in der Tippgeschwindigkeit, im Tonfall, in der Wortwahl und in der Häufigkeit, mit der Kinder zu Hause bleiben, Probleme signalisieren". Es könnte bis zu 1.000 Smartphone-basierte 'Biomarker' für Depressionen geben..."[17]

Der Markt für "Künstliche Intelligenz in der psychiatrischen Versorgung" verzeichnet heute ein rasantes Wachstum. Die wichtigsten Schlüsselakteure sind IBM Watson AI XPRIZE, Acadia Healthcare Co., Inc. und Universal Health Services, Inc. (UHS), Magellan Health Inc., National Mentor Holdings Inc., Behavioral Health Services Inc., Behavioral Health Network Inc., North Range Behavioral Health, und Strategic Behavioral Health, LLC. Die meisten Unternehmen im Markt für globale künstliche Intelligenz in der psychiatrischen Versorgung nehmen derzeit neue technologische Trends auf dem Markt auf, so ein Marktbericht[18].

Der Bericht Künstliche Intelligenz in der globalen Gesundheit, der am 1. April 2019 veröffentlicht wurde, wurde vom Center for Innovation and Impact der USAID und der Rockefeller Foundation in enger Abstimmung mit der Bill & Melinda Gates Foundation finanziert[19].

In einem Artikel von Peter Simons vom März 2020 berichtete er, dass die Regierung des Bundesstaates Kalifornien im Jahr 2018 mit der Einführung einer neuen Initiative zur "psychischen Gesundheit" begonnen habe. Die Technologieunternehmen des Silicon Valley entwickelten Smartphone-Apps, die Benutzer dazu veranlassen könnten, sich um psychische Gesundheitsfürsorge zu bemühen, und der Staat wollte Unterstützung anbieten. Von den Tausenden von Apps zur psychischen Gesundheit, die es heute gibt, wählte der Staat zwei aus. Die erste App heißt 7 Cups, von einer Firma namens 7 Cups of Tea. Sie konzentriert sich darauf, die Nutzer psychosozialer Dienste in textbasierten Chat-Sitzungen mit so genannten "Zuhörern" zu verbinden - Freiwilligen, die im "aktiven Zuhören" geschult sind. Der New York Times zufolge wurde das Unternehmen jedoch mit Problemen geplagt, darunter Zuhörer, die unangemessene Gespräche mit ihren Kunden führen, und Untersuchungen wegen angeblichen finanziellen Fehlverhaltens[20].

Das andere Unternehmen, das eine Partnerschaft mit Kalifornien eingeht, ist Mindstrong Health. Ihre App, die am 17. März 2020 unter dem Namen Mindstrong firmierte und zuvor als Health bekannt war, ist im Google Play Store und im Apple App Store erhältlich. Laut Simons "ist es die Mindstrong-App, die am meisten das Schreckgespenst der Schöne Neue Welt, Aldous Huxleys klassischen dystopischen Roman der Eugenik und psychiatrischen Überwachung.... Wenn wir unser Smartphone und unsere Computer benutzen, sind unsere Tipprhythmen, unsere Tippgewohnheiten, unsere Tippfehler und so weiter alles Datenpunkte, die zu einem Portrait der psychischen Gesundheit des Benutzers zusammengestellt werden können, eines, von dem die Schöpfer von Mindstrong behaupten, es könne erfolgreich 'Depressionen, Angstzustände und andere psychiatrische Störungen' diagnostizieren"[21].

Die App installiert eine spezielle Tastatur auf Ihrem Telefon. Auf diese Weise kann die App jederzeit Informationen über die Art und Weise, wie Sie tippen, aufzeichnen (unabhängig davon, ob Sie die App geöffnet haben oder nicht). Auf der Website von Mindstrong heißt es, dass die App die Benutzer mit Psychiatern und "glaubwürdigen Therapeuten" verbindet. Benutzer können mit Psychiatern über ihre verschreibungspflichtigen Medikamente per Video-Chat kommunizieren, obwohl unklar ist, wie oft das geschieht, sagt Simons[22].

Wie Stat News 2018 berichtete: "Hält die App, was sie verspricht? Es gibt keine Möglichkeit, das festzustellen. Fast niemand außerhalb des Unternehmens hat eine Ahnung, ob sie funktioniert"[23].

Mindstrong Health begann mit Paul Dagum, einem Arzt und Forscher aus Stanford, der auch fortgeschrittene Abschlüsse in theoretischer Physik und theoretischer Informatik besitzt. Er ist auch der Inhaber zahlreicher Patente für Technologien der künstlichen Intelligenz - Algorithmen, die darauf ausgelegt sind, große Datenmengen zu bewerten, um Vorhersagen zu treffen.[24] Ein weiterer Mitbegründer, Richard D. Klausner M.D., der als Exekutivdirektor für Global Health der Bill and Melinda Gates Foundation tätig war.[25]

Der ehemalige Direktor des U.S. National Institute for Mental Health, der Psychiater Thomas Insel, ist ein weiterer Mitbegründer von Mindstrong Health[26].

Im Jahr 2013 wies Insel als scheidender Direktor des NIMH auf die mangelnde Wirksamkeit des DSM5 hin. Er erklärte: "Obwohl das DSM als eine 'Bibel' für das Gebiet beschrieben wurde, ist es bestenfalls ein Wörterbuch, das eine Reihe von Labels erstellt und jedes einzelne definiert... Die Schwäche ist seine mangelnde Gültigkeit. Im Gegensatz zu unseren Definitionen der ischämischen Herzkrankheit, des Lymphoms oder von AIDS beruhen die DSM-Diagnosen auf einem Konsens über Cluster klinischer Symptome und nicht auf objektiven Labormessungen"[27] Zwei Jahre später sagte er voraus, dass die Technologie die psychische Gesundheit verändern würde. "Wenn wir in Zukunft an den privaten Sektor und die Gesundheitsforschung denken, denken wir vielleicht mehr an Apple und IBM als an Lilly und Pfizer. Hier sind zwei faszinierende Vorschauen auf diese neue Welt, die ich während meiner Reisen in der vergangenen Woche notiert habe. Die eine war die Veröffentlichung der Ergebnisse einer Zusammenarbeit zwischen der Columbia University und IBM", schrieb er.

Weiter schrieb er: "Die Biomarker für Depressionen und Psychosen und posttraumatische Belastungsstörungen sind wahrscheinlich objektive Messungen der Kognition und des Verhaltens, die von Smartphones erfasst werden können"[28].

Im Jahr 2015 begann Insel die Zusammenarbeit mit Verily, einem Biowissenschafts-Technologieunternehmen, das sich im Besitz der Google-Muttergesellschaft Alphabet, Inc. befindet. Nach einem kurzen Abstecher dorthin verließ er das Unternehmen, um gemeinsam mit Dagum Mindstrong Health zu gründen. Im Jahr 2020 ernannte der kalifornische Gouverneur Gavin Newsom Insel zum "Sonderberater" für das staatliche System der psychischen Gesundheit, obwohl Insel weiterhin Präsident von Mindstrong bleibt, mit dem Kalifornien einen Vertrag abgeschlossen hat[29].

Für die allgemeine Gesundheitsfürsorge ist der Markt mit 2,10 Milliarden Dollar bereits lukrativ - mit einem voraussichtlichen Marktvolumen von 36,15 Milliarden Dollar im Jahr 2025 und 54,10 Milliarden Dollar im Jahr 2026[30] Im Februar 2020 berichtete Mobi Health News, dass die weltweiten Investitionen in psychische Gesundheitstechnologie laut einer Studie des Frühphaseninvestors Octopus Ventures im Jahr 2019 769 Millionen Dollar erreichten.  In den letzten sechs Jahren haben sich die Investitionen in Technologien für die psychische Gesundheit von 159 Millionen Dollar im Jahr 2014 auf fast das Fünffache erhöht[31].

Im Fall der KI in der psychiatrischen Industrie (Psychiatrie und Psychologie) ist dies nur ein weiteres lukratives, aber letztlich schädliches Instrument, das dazu führt, dass nur noch Millionen von Menschen willkürlich als psychisch krank bezeichnet bezeichnet, unter Drogen gesetzt, elektrogeschockt und Schlimmerem ausgesetzt werden.

Autoren: Jan Eastgate und NL. Zündorf

Quellen: [1] “AI in psychiatry: detecting mental illness with artificial intelligence,” Health Europa, 19 Nov. 2019, https://www.healtheuropa.eu/ai-in-psychiatry-detecting-mental-illness-with-artificial-intelligence/95028/

[2] Ibid.

[3] “The Brave New World of Mental Health,” The Washington Spectator, 8 Mar. 2019, https://washingtonspectator.org/the-brave-new-world-of-mental-health/

[4] “Artificial Intelligence Could Help Solve America’s Impending Mental Health Crisis,” TIME, 20 Nov. 2019, https://time.com/5727535/artificial-intelligence-psychiatry/

[5] Op. cit., Health Europa

[6] Op. cit., TIME

[7] https://www.ibm.com/blogs/research/2017/1/ibm-5-in-5-our-words-will-be-the-windows-to-our-mental-health/

[8] Op. cit., TIME

[9] Op. cit., The Washington Spectator

[10] “Entrepreneur of the Week: Dr. Alison Darcy, Woebot Labs, Inc.,” The Longevity Network, 18 Jul. 2017, https://www.longevitynetwork.org/spotlight/entrepreneur-of-the-week/alison-darcy-woebot-labs-inc

[11] Op. cit., The Washington Spectator

[12] https://www.research.ibm.com/5-in-5/mental-health/

[13] https://www.cchrint.org/2019/12/19/cchr-warns-of-psychiatrist-patrick-mcgorry-others-brave-new-world/

[14] Op. cit., TIME

[15] S. Graham, et al., “Artificial Intelligence for Mental Health and Mental Illnesses: an Overview,” Current Psychiatry Reports, 2019 Nov 7;21(11):116. doi: 10.1007/s11920-019-1094-0, https://www.ncbi.nlm.nih.gov/pubmed/31701320

[16] https://ps.psychiatryonline.org/doi/10.1176/appi.ps.201900464

[17] https://medicalfuturist.com/artificial-intelligence-in-mental-health-care/

[18] https://coleofduty.com/market-reports/2020/05/14/rapid-growth-of-artificial-intelligence-in-mental-health-care-market-positioning-of-vendors-growth-insights-and-competitive-scenario-ibm-watson-ai-xprize-acadia-healthcare-co/

[19] https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(19)30814-1/fulltext

[20] “Mental Health Apps: AI Surveillance Enters Our World,” Mad in America, 21 Mar. 2020, https://www.madinamerica.com/2020/03/mental-health-apps-ai-surveillance/

[21] Ibid.

[22] Ibid.

[23] https://www.statnews.com/2018/10/04/mindstrong-questions-over-evidence/

[24] Op. cit., Mad in America

[25] https://mindstrong.com/team/rick-klausner-md/

[26] https://mindstrong.com/team/tom-insel-md/

[27] https://www.nimh.nih.gov/about/directors/thomas-insel/blog/2013/transforming-diagnosis.shtml

[28] Thomas Insel, “Post by Former NIMH Director Thomas Insel: Look who is getting into mental health research,” NIMH, 31 Aug. 2015, https://www.nimh.nih.gov/about/directors/thomas-insel/blog/2015/look-who-is-getting-into-mental-health-research.shtml

[29] Op. cit., Mad in America

[30] https://www.marketsandmarkets.com/Market-Reports/artificial-intelligence-healthcare-market-54679303.html; https://www.openpr.com/news/1909058/global-artificial-intelligence-in-healthcare-market-2020

[31] “Global investment in mental health technology surges above half a billion pounds,” Mobile Health News, 3 Feb. 2020, https://www.mobihealthnews.com/news/europe/global-investment-mental-health-technology-surges-above-half-billion-pounds