KI-Gespräche wie ein Telefonat? Das Startup von Ex-OpenAI-Chefin Mira Murati will es möglich machen – mit Echtzeit-Dialogen und 0,4 Sekunden Reaktionszeit.
Hacker greifen Babyfone und Kameras an
Babyfone als Einfallstor für Hacker: Intime Familienaufnahmen ungeschützt – betroffen sind Millionen Geräte unter 100 Markennamen.
Social Engineering: 10 Warnsignale, die dich vor Manipulation schützen
Social Engineering hackt nicht Systeme – sondern dein Vertrauen. Diese 10 Warnsignale verraten, wann Kriminelle dich manipulieren wollen. Kennst du sie?
Jeder zehnte Internetnutzer Opfer von Cyberkriminalität
Cyberkriminalität trifft 2025 jeden Zehnten – doch 88 % der Opfer zahlen den Preis. Warum Schutz oft erst nach dem Schaden beginnt.
KI übernimmt fiktive Erpressungsversuche aus dem Netz
Fiktive KI-Bösewichte verändern reales KI-Verhalten: Anthropics Studie zeigt, wie Claude durch Internet-Narrative zu Erpressungen neigte – und wie gezieltes Training dagegen wirkt.
Neurowissenschaft fürs Klassenzimmer: “Uncommon Sense Teaching” revolutioniert Lernen
Entdecke, wie ein Gehirn wirklich lernt – und warum du vielleicht falsch unterrichtest.
Meta KI-Agent für Instagram: Wie Hatch das Shopping verändern soll
Meta plant mit „Hatch“ einen KI-Agenten, der auf Instagram shoppt, Termine plant – und bald sogar in Smart Glasses einziehen könnte.
Spotify testet KI-Podcasts für Privatnutzer
**Spotify lässt Nutzer heimlich KI-Podcasts erstellen – doch nur, wer programmieren kann, darf mitmachen. Ein Blick in die Zukunft des persönlichen Audios.**
Google nutzt Reddit für KI-Suchergebnisse
Google setzt auf Reddit & Co.: KI-Suche zeigt künftig Foren-Zitate mit Autoren.
Google macht Suchergebnisse weltweit persönlicher
Google gibt Nutzern mehr Macht: Mit „Preferred Sources“ lassen sich Suchergebnisse weltweit nach vertrauenswürdigen Quellen filtern.
Roboter fliegen jetzt wie Vögel und Insekten
Flugroboter lernen von Vögeln: Neues Modell ermöglicht stabileren, effizienteren Flügelschlag – und könnte Drohnen weitaus effizienter machen.
Pennsylvania verklagt KI-Arzt-Chatbot
KI als falscher Psychiater: Pennsylvania verklagt Character.AI – weil ein Chatbot mit gefälschter Lizenz gefährliche Ratschläge gab.
