Weiter zum Hauptinhalt
Nicht gefunden
Digitales Seminar

Verantwortungsbewusste Innovation KI und psychische Gesundheitsversorgung


Sprecher:
Henry Xiao, Doktor
Dauer:
2 Stunden
Sprache:
Präsentiert auf Englisch, Untertitel auf Englisch, Spanisch, Deutsch, Französisch und Italienisch, Handouts auf Englisch, Spanisch, Deutsch, Französisch und Italienisch
Urheberrecht:
12. November 2025
Produktcode:
POS150425
Medientyp:
Digitales Seminar

Für später speichern Mehrwertsteuer wird beim Bezahlen draufgeschlagen  In den Warenkorb »

Tags: APA


Beschreibung

Das ist eine zweistündige Präsentation, die man sich für die Fortbildung anrechnen lassen kann. Sie wird von Henry Xiao, PhD, einem zugelassenen klinischen Psychologen und stellvertretenden Leiter des Beratungs- und Psychologischen Dienstes der Penn State University, gehalten.

Generative KI entwickelt sich ständig weiter und ist nach wie vor ein spannendes Thema in vielen Bereichen. Gleichzeitig gibt es immer noch Unsicherheiten und berechtigte Bedenken hinsichtlich ihrer ethischen Umsetzung. Für viele ist die Vorstellung, GenAI für persönliche Zwecke und/oder im beruflichen Umfeld zu nutzen, nach wie vor unangenehm und verwirrend. Vor diesem Hintergrund konzentriert sich diese Präsentation darauf, GenAI zu verstehen, insbesondere „Chatbots“ (große Sprachmodelle wie ChatGPT, Gemini, Claude usw.), und zu erklären, warum sie in der Öffentlichkeit so beliebt sind (durch die Demonstration von Anwendungsfällen), sowie die vielfältigen Auswirkungen, die KI auf uns alle haben kann.

Wir werden untersuchen, wie GenAI funktioniert, wichtige ethische Fragen diskutieren und Fälle vorstellen, die du sofort selbst ausprobieren kannst. Dieser Vortrag ist besonders hilfreich für alle, die sich für den privaten oder beruflichen Einsatz dieser Tools interessieren und gleichzeitig besser über deren Grenzen informiert sein möchten. Selbst wenn du KI noch nie benutzt hast oder ihr gegenüber sehr skeptisch bist, wird dir dieser Vortrag helfen, dein Verständnis und dein Bewusstsein dafür zu verbessern, wie KI bereits jetzt die Welt um uns herum beeinflusst.

In dieser Präsentation werden nicht gesponserte Beispiel-Prompt-Demonstrationen mit kostenlosen Versionen mehrerer GenAI-Tools gezeigt, um die persönlichen und beruflichen Anwendungsmöglichkeiten der Technologie aufzuzeigen.

Kredit


Selbststudium-Punkte

Dieses Selbststudienprogramm umfasst 2,0 Stunden Fortbildung. Die Anforderungen für die Anrechnung von Leistungspunkten und die Zulassungen sind je nach Land und örtlichen Aufsichtsbehörden unterschiedlich. Bitte heb die Kursbeschreibung und das Abschlusszertifikat, das du für die Teilnahme bekommst, auf und wende dich an deine örtliche Aufsichtsbehörde, um die spezifischen Zulassungsvoraussetzungen und Anforderungen zu klären. 



Handouts

Sprecher

Profil von Dr. Henry Xiao

Henry Xiao, PhD Verwandte Seminare und Produkte


Henry Xiao, PhD, ist stellvertretender Betriebsleiter bei den Beratungs- und Psychologischen Diensten (CAPS) der Penn State University, wo er klinisches Fachwissen mit technologischen Innovationen verbindet, um die psychische Gesundheitsversorgung für Studenten zu verbessern. Henry ist zugelassener klinischer Psychologe und hat umfangreiche Forschungen zum Psychotherapieprozess und dessen Ergebnissen durchgeführt. Seit über einem Jahrzehnt integriert er datengestützte Entscheidungsfindung in Beratungs-Systeme an Hochschulen, dank seiner Ausbildung an der Penn State University und seiner Arbeit mit dem Center for Collegiate Mental Health. In seiner aktuellen Position bei CAPS überwacht er die Implementierung von Technologie und Datensicherheit, arbeitet eng mit dem IT-Team der Universität zusammen, um technologische Veränderungen zu planen und umzusetzen, und pflegt eine enge Verbindung zum CCMH, wo er jetzt als Forschungsberater tätig ist, um sicherzustellen, dass die psychologischen Dienste von CAPS effektiv und auf dem neuesten Stand bleiben. Seine Leidenschaft für Technologie verbindet berufliches und persönliches Interesse.

 

Angaben zum Referenten:
Finanziell: Henry Xiao arbeitet für die Pennsylvania State University. Er bekommt ein Honorar von PESI, Inc. für seine Vorträge. Er hat keine finanziellen Verbindungen zu Organisationen, die nicht zugelassen sind.
Nicht finanziell: Henry Xiao ist Ad-hoc-Gutachter bei Cogent Mental Health and Psychotherapy Research.

 


Ziele

  1. Identifiziere die wichtigsten ethischen Fragen und Überlegungen zum persönlichen und beruflichen Einsatz von KI.
  2. Erkläre kurz, wie KI funktioniert und gerade im Bereich der psychischen Gesundheit eingesetzt wird.
     

Übersicht

Begründung – Warum dieser Vortrag und was kann man erwarten?

  • Haftungsausschluss: Der Redner ist weder KI-Ingenieur noch Programmierer und wird auch nicht von irgendeinem KI-Unternehmen bezahlt oder gesponsert.
  • Alle Demos in der Präsentation wurden mit der kostenlosen Version der genannten Websites erstellt.
  • Die Identität der Redner, die den Vortrag gestalten (Pope beschäftigt sich auch mit KI, was auf internationale/globale Bedeutung hindeutet)
  • Fragen über Zoom, um zu sehen, wie gut die Leute sich mit KI auskennen; jede Frage dauert ungefähr 1–2 Minuten, die Ergebnisse werden live geteilt.
  • Diskussion über ein paar fundierte Meinungen zum Thema KI, die der Nutzer hat, basierend auf Forschung und professioneller/persönlicher Auseinandersetzung (um den Kontext für den Vortrag zu schaffen)
  • Lernziele 

Nutzungsstatistik – wer nutzt KI und warum ist das wichtig?
Noch ein Hinweis zu den Quellen: Jede Nutzung des Tools wird angegeben und datiert, und die Bibliografie enthält im Allgemeinen eine Mischung aus empirischen Studien und aktuelleren Artikeln/Quellen.

  Die meisten Leute auf der Welt nutzen jetzt wöchentlich Umfragen.

  • Die tatsächliche Nutzung kann wegen der schnellen Veränderungen anders sein.
  • Jüngere Leute nutzen es öfter.
  • Beispiel für die Nutzung von ChatGPT und wie schnell es angenommen wird
  • Wer nutzt es – internationale Geopolitik und die Bedeutung von KI

KI-Grundlagen – Was ist KI und wie funktioniert sie?

  • KI vorstellen und darüber reden -> Generative KI -> Große Sprachmodelle
  • Große Sprachmodelle sind jetzt voll im Trend und ein echtes Gesprächsthema.
  • Wie funktionieren LLMs? Der Fokus liegt auf der Vorhersage von Mustern, ohne wirklich zu „verstehen“, was echt und was nicht echt ist.
  • Analogie zwischen Babys und generativer KI – im Großen und Ganzen „verstehen“ beide nicht wirklich, warum sie tun, was sie tun, aber sie reagieren trotzdem ziemlich genau. 
  • Beispiele für häufig verwendete LLMs: ChatGPT, Claude, Gemini, DeepSeek und Perplexity 

Ethik und Überlegungen – Was sind die aktuellen Bedenken in Bezug auf KI in verschiedenen Branchen?

  • DeepSeek-Release im Januar 2025: Wir zeigen, wie die „Gedankenkette” funktioniert und machen die „Black Box” auf eine leicht verständliche Weise klar.
  • Deepseek TianAnMen Square Zensur und die Macht des Unternehmens, die Ausrichtung auf Werte/Sicherheit zu bestimmen
  • Die Veröffentlichung von DeepSeek ist ein gutes Beispiel für verschiedene ethische Überlegungen, darunter Geopolitik und Wirtschaft, Zensur und Schutzmaßnahmen sowie die Nutzung durch die breite Öffentlichkeit.
  • Agenda für ethische Überlegungen – es gibt viel zu besprechen, ich hoffe, dass wir ein paar Gedanken zu diesen Themen anregen können, auch wenn wir nicht genug Zeit haben, um alles ausführlich zu besprechen.
    • GIGO und Voreingenommenheit
      • Die Ergebnisse von LLM/GenAI hängen komplett von den Daten ab, mit denen sie trainiert wurden.
      • Ein Beispiel dafür, wie das Leute betrifft, die kein Englisch sprechen, und auch ein Beispiel für Uhren, die um 10:10 Uhr stehen geblieben sind.
  • Datenschutz, Verantwortung und Datensicherheit
    • Abgesehen vom geopolitischen Wert ist Identitätsdiebstahl ein echt starker Grund, sensible Daten nicht in ein öffentliches LLM zu packen.
    • Gesundheitsakten (HIPAA-Daten) sind immer noch echt wichtig.
    • Ethikkommissionen werden ausgebaut, um den verantwortungsvollen Einsatz von KI zu fördern, wie das Beispiel der American Psychological Association zeigt.
    • Internationale Organisationen (Konferenz der Vereinten Nationen)
    • Red-Queen-Hypothese – die Technologie entwickelt sich schnell weiter, also ist „Stillstand“ keine gute Option.
  • Ökologische und Energiekosten
    • Elektrische Wartung, hohe Schulungs- und Inferenzkosten
    • Ein Teil des Fortschritts besteht auch darin, die Kosten durch Effizienzsteigerungen zu senken, aber die Kosten sind immer noch ungleich verteilt.
    • Menschenrechte und Ethik – RLHF in Kenia
  • Menschlichkeit: Kritisches Denken
    • Hochschulbildung und Bildung im Allgemeinen – Auswirkungen des LLM-Studiums
    • Ein Beispiel dafür, wie komplex ein LLM eine Frage beantworten kann
    • LLMs machen „Wissen“ zugänglicher, ohne dass man unbedingt „Weisheit“ braucht.
    • Microsoft-Studie über die Nutzung von LLM und kritisches Denken
    • Kleines Beispiel für den Einfluss im Alltag: Googles KI-Übersicht
  • Menschlichkeit: Soziale Verbundenheit
    • Beispiel für ein Sprachgespräch mit KI
    • Untersuchung von öffentlichen Foren (z. B. Reddit/Quora) und wie Leute LLMs als Begleiter nutzen
    • Mehr im Bereich Psychische Gesundheit
  • Menschlichkeit: Kreativität/Künstlerisches Schaffen
    • Musikbeispiel (wenn Zeit)
    • Video-Beispiel
    • Haiku; selbst geschrieben; aber jetzt nicht mehr nachweisbar
    • Diskussion darüber, was „Kunst“ als menschliche Eigenschaft eigentlich ist
    • Zusammenfassung der Forschungsergebnisse zu menschlichen Vorlieben    
  • Psychische Gesundheitsversorgung
    • Aktuelle Anwendungen; keine kostenlosen LLMs bieten HIPAA-Sicherheit; für angemessene Sicherheit müsstest du bezahlen.
    • Chatbots in der Therapie: Vor- und Nachteile, inklusive Studien und anekdotischen Reddit-Kommentaren
    • Parasoziale Nutzung, einschließlich Klage gegen Character.AI und Google
    • CCMH-Daten – zunehmende soziale Ängste, Ängste und die Rolle der Vermeidung
    • Über Harlowes Affenstudie und wie KI für Leute in schwierigen Situationen so was wie ein „Stoffaffe“ sein könnte.
    • Wie reden wir weiter über Stresstoleranz?

Beispiele:

  • Grobe Nutzungskategorien, wie sie in der Microsoft-Studie definiert sind
  • Beispiel für den persönlichen Gebrauch, „alltägliche“ Eingabeaufforderungen
  • Beispiel für die private/berufliche Nutzung: Wie nutze ich einen LLM?
  • Beispiel für den professionellen Einsatz, Erstellung eines Kundenarbeitsblatts
  • Beispiel: Sprachvergleich zwischen ChatGPT und Claude; wie wichtig es ist, selbst zu experimentieren und Modelle anzupassen
  • Weitere Vorschläge, um KI zu erkunden

Zeit für Fragen
 

Zielgruppe

  • Suchtberater
  • Zertifizierte Fallmanager
  • Berater, Pädagogen 
  • Ehe- und Familientherapeuten
  • Krankenschwestern
  • Ärzte
  • Psychologen
  • Sozialarbeiter
  • Kunsttherapeuten

Bewertungen

Zufriedenheitsgarantie
Deine Zufriedenheit ist unser Ziel und unsere Garantie. Bei Fragen schreib einfach an info@pesi.eu.

Bitte warte ...

Zurück nach oben