
In den USA sind Gespräche mit Softwareentwicklern wohl schon auf (spezialisierte) AIs ausgerichtet und es wird im Grund getestet, wie schnell sie mit entsprechenden AI-Tools eine Lösung entwickeln aka zusammenstellen aka bugfrei bekommen können.
No more Leetcode. Werd ich aber auch nicht vermissen. Ich entwickle inzwischen z.B. sehr selten und für mich ist AI eine große Unterstützung, weil ich die ganzen Details nicht mehr kennen muss, aber die Grundprinzipien ja noch sitzen.
AIs sind quasi wie Navis. Du musst noch wissen wohin du willst, aber du musst nicht mehr 3 Karten mit ins Auto nehmen und dir jeden einzelnen Wegpunkt vorher raussuchen.

Mal einige Querthemen bzgl. KI von der Humboldt Stiftung 08/2022
https://www.humboldt-foundation.de/entdecken/newsroom/pressemitteilungen/zwischen-sorge-und-euphorie-wie-kuenstliche-intelligenz-unser-leben-veraendert
Chance oder Risiko – Wie gelingt die KI-Balance?
04.07.2025 Alexander von Humboldt-Professor Holger Hoos
https://www.rwth-aachen.de/cms/root/wir/aktuell/pressemitteilungen/juni-2025/~bokjls/chance-oder-risiko-wie-gelingt-die-ki-/

Webfishbone - Deine Verlinkung ist eine Pressemitteilung von August 2022, also schon ziemlich alt und noch aus der Zeit, bevor ChatGPT in der breiten Öffentlichkeit aufgeschlagen ist. Alles Ok, wollte ich nur kurz anmerken.
Ahh, jetzt hast Du den Post verändert …

Der erste Selbstmord mit Anleitung durch KI. Im April dieses Jahres hat sich ein Teen in den USa mit Hilfe der KI das Leben genommen. Die Eltern verklagen den Konzern jetzt.
https://www.nbcnews.com/tech/tech-news/family-teenager-died-suicide-alleges-openais-chatgpt-blame-rcna226147

Wenn man für einen Selbstmord schon Hilfe braucht wirds bedenklich. - aber das liegt weniger an der KI sondern am Internet selbst. Und das zu beschränken wäre der falsche Weg
https://www.aerzteblatt.de/news/forscher-entlocken-chatgpt-anleitung-zu-selbstverletzung-und-suizid-0a429c82-11ff-4c19-8a17-756e9faa54ff
Wenn jemand eine selbstötungsabsicht hat, dann wird er auch entsprechende Wege finden, egal ob mit oder ohne KI

klar,man kann sichs auch schön reden. aber das kennen wir ja nicht anders von dir. Abgesehen von deinem unterirdischen kommentar ,ob ein junger mensch nun wissen sollte wie man sich das leben nimmt....Emphathie? ein fremdwort für dich. gefahr erkennen? nun ja vielleicht--aber egal scheint es dennoch zu sein-
Junge Menschen sind nun mal leicht beeinflussbar . Nicht alle, aber doch so einige. Ich spreche da aus beruflicher Erfahrung.

Es ist sicher schwierig da eine Balance zu finden. Ich weiß als menschliches Wesen in Gesprächen mit Menschen mit Depressionen, und schwierigen Problemen ja oft nichtmal, wie ich reagieren soll.
ChatGPT hat wohl diverse Warnungen und Hinweise zu Suizid-Hotlines etc. ausgespuckt, der Teenager hat sie nur umgangen in dem er z.B. behauptet hat, sie für eine Präsentation zu benötigen.
Soll gewisses Wissen ganz "geschützt" und nicht vorhanden sein, auch wenn z.B. Mediziner oder Toxikologen es benötigen würden?
Soll das Tool einfach irgendwann aufhören mit manchen Menschen zu sprechen, wenn sie sich in Hilfssituation an es wenden und ggf. ungesunde/depressive Tendenzen zeigen?
Was ich relativ kritisch finde, ist das die Modelle alle in einem "People Pleasing" Mode sein müssen, um bei Menschen gut anzukommen. Je mehr die AI den Menschen darin bestärkt, was er eh schon denkt, desto positiver nehmen die Menschen das Tool wahr, was für die AI-Firmen gut fürs Geschäft ist. Aber: Die KI, die mit einem sadistischen, destruktiven Wannabe-Massenmörder mit Achselschweißfetisch redet, wird also eine Menge Dinge sagen, die die breite Masse nicht hören will und die für die breite Masse in ihren Folgen vielleicht auch gar nicht gut sind. Der "Kunde" will aber genau das. Ist das eine Fehlfunktion des Tools?
Sollte also eine AI versuchen Menschen zu einer "Norm" zu erziehen? Was ist diese Norm? Sollten z.B. auch Schwule in muslimischen Ländern umerzogen werden? Gibt es Schelte für potenzielle Alkoholiker, wenn jemand zum 2. Mal in einer Woche nach Cocktailrezepten fragt oder für wen soll ChatGPT in Konfliktsituationen zwischen dem Nutzer, seinem Umfeld und/oder dem Staat Partei ergreifen? Im Moment ist so gelöst: Das Tool ist gnadenlos auf der Seite des Nutzers. Auch wenn der in den Augen seines Umfeldes Fehler hat und macht. Gerade wenn der Nutzer noch Verständnis einfordert.
Ist das wirklich die falsche Grundeinstellung?
Müssen die AI-Firmen die People-Pleasing-Settings zu Gunsten eines sozialen Kodex reduzieren? Wie sieht der aus? Wer definiert den?
.... und warum merken die Eltern nicht, dass der Sohn sich über 6 Monate sozial völlig isoliert. Ich weiß nicht, ob sie es hätten stoppen können, aber das gar nicht zu merken, ist nicht die Schuld von ChatGPT. Er hat offenbar dringend jemanden zum Reden gesucht, der ihn nicht verurteilt und nichts von ihm verlangt, das er nicht will.

Nun ich bin ja beruflich in der IT beheimatet und auch wenn mir unsere Steuerberater immer davon abraten auch Privatkunden zu Supporten, da diese oft nur für Ärger und Diskussionen sorgen, machen wir es trotzdem, denn nur wenige Systemhäuser Supporten wir diese.
Daher ist meine Erfahrung, dass viele und leider auch junge Menschen Suchfunktionen zur Wissenserlangung im Internet nicht mehr zu nutzen wissen. Für viele endet das Internet in den "sozialen" Netzen (die gänzlich asozial sind und mehr, dazu dienen die Menschen auf rein freiwilliger Basis auszuspähen). Leider sind heute auch die Lehrer in Schulen bezüglich Internet Nutzung und Gefahren recht ungebildet, weil es hier auch an Schulungen mangelt. Mit diversen KI Tools wird nun diese Lücke geschlossen, denn diese Tools liefern Ergebnisse, die man ohne nicht finden würde. - Aber sie liefern eben oft nur wenige Ergebnisse und die sind teilweise auch noch falsch.
Leider gibt es zu viele Menschen, die nur einer Quelle vertrauen und auch dieser neuen Technik vertrauen, insbesondere da diese neue Welt einfach toll ist, besonders dann wenn man von sich glaubt IT nerdig zu sein. KI basiert auf Trainigsdaten die wir freiwillig (oder auch nichts o ganz freiwillig) zur Verfügung stellen und nutzt natürlich das Wissen des Internets.
Was wollen/sollen wir also tun? Das Internet kastrieren weil sich jemand dessen bedient hat um sich umzubringen?
Viele junge Familien sind oft von der Technik abhängig und isolieren sich gegenseitig selbst durch intensive Smartphone /Tablet Nutzung. immer mehr Funktionen gibt es als App und Kommunikation läuft via App. Gemeinsame Gespräche / Erlebnisse werden selten und oft wird die gemeinsame Zeit nur noch gemeinsam mit den Smartphones verbracht. Viele Eltern wünschen sich dann eine vollständige Überwachung der Mobile Devices und Beschränkung des Internets - kann man alles machen. Oft jedoch habe ich mir schon viel Ärger eingehandelt, wenn ich sage "klar können wir das realisieren, aber besser wäre es wenn Sie das Problem auf Basis der Erziehung lösen"
Viele Elter Delirieren die Erziehung gerne an Technik, Lehrer, Kitas und Co, weil man selbst dazu keine Lust oder Zeit hat, zumal man sich auch um die Problemlösung mit der Technik kümmern muss, die man ohne nicht hätte.

@Sarahlina
nun Du siehst das aus einem rein emotionalen Blickwinkel (der arme Jugendliche)
das leid habe ich auch nicht in Frage gestellt, aber die Lösung kann eben nunmal nicht mit Technik erfolgen. Man muss nicht alles mit Technik erschlagen und einfach nur genug Technik daruf werfen.
Wenn jemand eine Selbstötungsabsicht hat, dann wird dies auch umsetzen. Egal mit oder ohne KI. Es ist ja nicht so, daß ihn die KI dazu gezwungen hat. Möglichkeiten gibt es viele auch in normalen Alltag.
Wollen wir Züge verbeiten, weil man aufs Gleis hüpfen kann?
Wollen wir Türme und Hochhäuser verbieten weil man runterhüpfen kann?
Wollen wir hohe Treppenhäuser verbieten, weil man runterhpüfen kann?
Wollen wir Autobahnbrücken verbieten, weil man runterhüpfen kann?
Hochpannungsleitungen, weil man die berühren kann?
usw.

@instron: diesmal gebe ich dir vollkommen Recht.
Natürlih sehe ich das aus emotionaler Sicht. Ich finds einfach nur noch gruselig diese KI. ebenweil ich weiß,dass menschen immer nicht nur das gute an einer neuen Errungenschaft geniessen ,sondern dass das immer abtriftet,was wohl in der Natur des menschen liegt. Traurig aber wahr. Natürlich kann man und darf man das nicht verieten. Meine Ambition war nur aufzuzeigen,was da passiert ist. Ignorieren darf man das nämlich auch nicht,aber wohl daraus lernen.

Gerade disruptive aka die-Welt-verändernde Technologien sind nie "gut" oder "schlecht. Zum einen ist "gut" relativ: Was dem Sachbearbeiter, dessen Job in Gefahr ist, missfällt, findet Elon Musk super toll, weil er in Zukunft vielleicht Fabriken fast ohne Arbeiter bauen kann.
Zum anderen hängt jedes Werkzeug, jedes Ding, jede Situation in der Welt davon ab, was man daraus macht: Auch KI.
Aktuell sind wir an einem Punkt, an dem Menschen, die gut mit KI umgehen können, viel produktiver, informierter und schneller sein können in vielen Bereichen als Menschen, die sie nicht nutzen. Für die nächsten ~10 Jahre, wird "KI effektiv nutzen zu können", ein Skill sein, der einem im Arbeitmarkt hält, wenn man einen der Jobs hat, die KI mittelfristig auch übernehmen könnte. Ganz einfach, weil man viel produktiver ist als sein Kollege nebendran.
Was danach kommt: Keine Ahnung. Viel wird jetzt davon abhängen, ob auf politischem Wege eine gnadenlose Reichtumsumverteilung zu den oberen 1% durch KI aufgehalten werden kann. Meine, nicht ohne Grund bietet ein Mark Zuckerberg gerade z.T. >1 Mrd. Dollar Ablöse um die führenden KI-Experten der Welt zu Meta zu holen.
Bei KI gibt es diese "Metaebene" (haha, hust), auf der die Dinge gut geregelt werden müssen, damit wir in 15 Jahren noch eine menschenfreundliche Gesellschaft haben und es gibt eben diese Microebene, auf der oder die einzelne in unserem direkten Umfeld vielleicht die Bodenhaftung verlieren wird, wenn ihr eine KI immer nur gut zuredet und sie/ihn in jedem destruktiven psychischen Gedanken unterstützt.
Auf der Metaebene werden die meisten von uns keinen großen Einfluss auf die Veränderungen der Welt haben. Aber auf der Microebene kann jeder mithelfen, menschliche Interaktion wichtiger, wärmer und interessanter bleiben zu lassen, als all das was KI für die wahrscheinlich beste Lösung hält.

toll geschrieben.selfcare.
Ich gebe gerne zu,dass mich die It eher abrschreckt,als dass mich das neugierig macht.liegt vielleicht auch daran,dass ich mich in diesem Gebiet allein gelassen fühle.
ca nach meinem Hochschulabschluß fing das ganze an. ich hatte nie einen Kurs,nie habe ich das in der Schule bzw Uni gelernt,also musste ich irgendwie immer allein zurecht kommen und bin da oft echt überfordert. in meinem Beruf als Musiklehrerin an einer Musikschule war das auch lange nicht nötig und plötzlich sollte man alles sofort wissen.
Ich lehne KI nicht ab,habe aber Bedenken. Ich selber muss mich aber jetzt amfangen damit zu beschäftigen,was ich mit Grausen mache,weil ja wieder keiner da ist,der mich da begleitet. Aber mal sehen.irgendwie wird alles gut.

Sarahlina - irgendwie verrückt aber grad die gewünschte Begleitung und Unterstützung kannst Du Dir von solch einem Programm holen.

Justme1955 - ja und nein oder ein entschiedenes Vielleicht?
Aktuell liefert die KI auch noch recht viel Mist und lässt sich auch noch zu mehr Mist bewegen. Besser würde das mit mehr Trainingsdaten, aber wollen wir wirklich unsere privates den großen Konzernen hinterherwerfen damit deren Gewinne steigen
selfcare, Du siehst da schon schön aus der rein dafür offenen nerdigen Seite
Aber die Menschheit ist von Natur aus ehr schlecht, also wird die KI mehr und mehr zu Problem und das gerade auch im Unternehmensumfeld, den dort will man oft verhindern, dass Interna an die Konkurrenz vermarktet werden. Klar nur rein technisch betrachtet ist vieles möglich, betrachte ich die KI Strategie als Microsoft Partner, so haben immer mehr Unternehmen das Interesse davon weg zu kommen um wieder die Hoheit über Ihre Daten zu bekommen und sich nicht vollständig auszuliefern.

Instron - natürlich ist es für Unternehmen - aber auch für politische Instanzen, öffentliche Verwaltungen, Krankenhäuser, Forschungseinrichtungen, Freiberufler etc. - existenziell, den eigenen Datenschatz zu schützen. Wie häufig sie bei dieser Aufgabe scheitern, erfahren wir allerdings regelmäßig. Wirkliche Unabhängigkeit ist schwer zu realisieren. Immer wieder versuchen auch z.B. Bundesländer, sich aus den Microsoft-Abhängigkeiten zu lösen und erkennen dann doch nach einer Weile, wie schwierig das ist. Du kennst die Gründe.
Aus meiner Sicht ist es wie mit allen technologischen Entwicklungen und Errungenschaften von der Dampfmaschine bis zur Digitalisierung von Musik oder Fotografie - sind diese Dinge einmal in der Welt, dann bleiben sie auch und verändern.
Man kann viel über die großen Tech-Konzerne denken - die unerhörte Dominanz wird sich meiner Ansicht nach fortsetzen. Kaum jemand wird sich dem entziehen können. Sie haben sich in den letzten 30 Jahren so tief in alle Prozesse und in unser aller Leben hineingearbeitet - ich sage auch gern "reingezeckt" - dass grossflächige Bemühungen, sich dem elementar zu entziehen zum Scheitern verurteilt sind. Vielleicht wird die ein oder andere Company mal straucheln oder plötzlich erscheinen auch mal neue Spieler auf dem Feld - so what. Ausserdem haben sie bereits heute eine gleichsam märchenhafte Finanzkraft erreicht.
Mein Tipp für Sarahlina war einfach so gemeint, bei der Erkundung und ihrer Unsicherheit ganz einfach bei z.B. Google-Gemini mal mit einem Prompt wie folgendem zu starten (und dann im Gespräch weiter zu fragen, anzumerken, zu kritisieren, ...):
"Hi - ich bin Anfänger, was KI anbelangt und ich möchte mich bei meiner Erkundung einmal anleiten lassen. Kannst Du mir helfen? Womit sollte ich anfangen? Bitte hilf mir doch mal die Technik kennenzulernen. Was kann ich damit anstellen, wobei kann sie helfen?"

Ganz lustig (auf Englisch, ggf. mit Übersetzung gucken): 4 AIs + 1 Mensch werden befragt und die AIs müssen raten, wer der Mensch ist. 😄
Sehr lustig, Tante Claudine war mir irgendwie sympathisch. https://www.youtube.com/watch?v=Z157TijNazs&ab_channel=Xiaomanyc%E5%B0%8F%E9%A9%AC%E5%9C%A8%E7%BA%BD%E7%BA%A6
@instron "Aber die Menschheit ist von Natur aus ehr schlecht" Glaub ich z.B. nicht und die psychologische Evidenz geht auch eher in die Richtung, dass 80% der Menschen andere Menschen wirklich wichtig sind. Bei 20% ist das anders und das Menschen auch so handeln können, muss man einfach mit einkalkulieren, wenn man eine Gesellschaft organisiert. Aber wenn wir nicht überwiegend soziale Herdentiere wären, wären wir entwicklungs- und gesellschaftstechnisch nie so weit gekommen. Über die Microsoft Strategie vieler Unternehmen könnte ich auch philosophieren, aber das gehört in einen anderen Thread.