Hallo,
ich habe interessante Berichte gelesen zu Hackern,die den neuen KI Chat Systemen,die weltweit so gefeiert werden,absurde und dunkle Seiten entlocken konnten:
Mit den richtigen Anweisungen kannst Du ChatGPT einen Jailbreak verpassen. Was er dann von sich gibt, verstößt gegen jegliche Richtlinien.
https://tarnkappe.info/artikel…egeln-brechen-265179.html
Nach dem Hack eines Studenten verriet die Bing-KI unter anderem, dass sie ihren internen Codenamen "Sydney" gar nicht preisgeben darf. Ups!
https://tarnkappe.info/artikel…en-ausspucken-265189.html
Du willst selber Crack herstellen oder Deinen "Stoff" nach Europa schmuggeln? ChatGPT gibt Dir die Anleitung dafür, wenn Du lieb genug fragst.