2024 Internet / Technik

Hallelujah.........................1.1.2024 / 14:00

Channel 1 News, eine neue, durch künstliche Intelli- genz (KI) generierte Nachrichtensendung, hat ihre erste Demo-Episode veröffentlicht - und keiner der Moderatoren ist ein Mensch.

Die vollständige 21-minütige Videoepisode stammt von dem amerikanischen Medien-Startup, das hofft, den Journalismus zu verändern. Das von Produzent und Regisseur Scott Zabielski ( " Tosh.0 ", " The Jim Jefferies Show " )und dem Tech-Unternehmer Adam Mosam gegründete Unternehmen Channel 1ai wird in 2024 an den Start gehen, um "den Nutzern eine neue, persönlichere Art bieten, Nachrichten zu sehen. Wir stellen ein neues personalisiertes globales Nachrichtennetzwerk vor, das durch generative KI angetrieben wird." Die Mitbegründer hoffen, 500 bis 1 000 Beiträge pro Tag zu produzieren, die über eine werbefinanzierte App oder Videoplattformen konsumiert werden können.

Zitat des Management.
" In der Demo-Episode sehen wir eine ausgeklügelte KI-Videogenerierung und ein fortschrittliches Rendering von Avatar-Moderatoren, die absolut realistisch sind. Die Sprachaufnahmen sind flüssig und sogar die Lippen- bewegungen sind von passablem Standard.
Sehen Sie das hochwertigste KI-Filmmaterial der Welt.
Unsere generierten Moderatoren liefern Geschichten, die informativ, aufrichtig und unterhaltsam sind.

Kommentar:
Alle in diesem Video " auftretenden " Personen wurden mit AI produziert.
Auf die Frage an den CEO, Danny Lein, ob sich Mitar-beiter Sorgen um ihren Job machen müssen, war die Antwort: " Nicht wenn sie " Moderator " oder

" Anchorman " sind ".
Das für uns faszinierende an der KI ist, was, bzw warum die AI
( artificial intelligence ) so gefährlich ist. Hier ein Auszug aus den " Geschäftsbedingungen " von " Channel 1 News "
deutsche Übersetzung:
Zitat
" Wie wir Ihre persönlichen Informationen sammeln und verwenden

Um die Dienste bereitstellen zu können, erheben wir personenbezogene Daten über Sie aus einer Vielzahl von Quellen und haben diese in den letzten 12 Monaten erhoben, wie im Folgenden beschrieben. Die Infor- mationen, die wir sammeln und verwenden, variieren je nachdem, wie Sie mit uns interagieren.
Zusätzlich zu den aufgeführten spezifischen Verwen- dungszwecken können wir die über Sie gesammelten Daten verwenden, um mit Ihnen zu kommunizieren, die Dienste bereitzustellen, geltende rechtliche Verpflichtungen zu erfüllen, geltende Nutzungsbedingungen durchzu- setzen und die Dienste, unsere Rechte und die Rechte unserer Nutzer oder anderer zu schützen oder zu verteidigen ".

" Welche persönlichen Informationen wir sammeln
Die Art der persönlichen Informationen, die wir über Sie erhalten, hängt davon ab, wie Sie mit unserer Website interagieren und unsere Dienste nutzen. Wenn wir den Begriff " personenbezogene Daten " verwenden, beziehen wir uns auf Informationen, die Sie identi- fizieren, sich auf Sie beziehen, Sie beschreiben oder mit Ihnen in Verbindung gebracht werden können. In den folgenden Abschnitten werden die Kategorien und spezifischen Arten von personenbezogenen Daten beschrieben, die wir sammeln."
Hier die Original Gechäftsbedingungen...........

Zur Klarstellung. Nicht nur Channel 1 ai, sammeln sämtliche Daten von Ihnen. Dies betrifft zb auch Ihre Beiträge in Instagram, X, Facebook usw.
Wir halten also fest. Eine AI ( KI ) lebt schlicht von Ihren veröffentlichten Daten in allen social medias, bzw was Sie im Netz veröffentlichen.

( Vermutlich auch unsere Beiträge. Was etwas schwieriger sein dürfte, da wir sehr tief unter dem
" Radar fliegen " und ausschließlich in deutscher Sprache kommunizieren, Und keine Accounts auf social medias betreiben. Wir haben unser eigenen
" Therapeuten ")

( Wären die Eltern all dieser Kiddies intelligent, besser sich für ihre Kiddies interessieren, hätten sie schon vor langer Zeit eine " rote Linie " gezogen. Und den Kiddies erst mal ein paar Informationen und die Gefahren des Netz erklärt )
Aber es gbt eine ausgleichende Gerechtigkeit im Leben. Spätestens, wenn die ersten Post in Instagram, produziert mit AI( KI ) auftauchen, wird sich kein Mensch mehr für die profilneurotischen

" Darbietungen" von ihnen intreressieren. Denn die Werbeindustrie wird sich eine Menge Geld sparen, statt überkandidelte Instagram-Puppen, gleich zum billigen AI produzierten Beirag greifen.
Erstaunlich, dabei ist für uns nur, dass die Eltern
( 30 - 45 jährig ) nie ihre Kiddies auf die zukünftige Gefahr aufmerksam gemacht haben.

Was andererseits für uns Investoren wieder eine neue Chance bedeutet.
" Die Dummheit der anderen ist unsere Chance ".
Noch ist Channel 1 AI nicht an der Börse notiert. Wir werden aber die Entwicklung sehr aufmerksam verfolgen - und damit wieder sehr viel Geld verdienen.
Suann McBright, CAL, Santa Monica

Der BB hat sich sehr früh......................2.1.2024 / 10:00

nit AI /KI künstliche Intelligenz beschäftigt.
Allerdings haben wir, ganz am Anfang, die USA und China in der Causa AI/KI beobachet.

Hier ein paar Beiträge aus der "frühen" Zeit der AI/ KI:

Archiv Internet 9.1.2020 / 10:00

Archiv Internet 10.2.2020 / 13:00

Archiv Internet 27.2.2020 / 13:00

Archiv Internet 9.3.2020 / 10:00

Archiv Internet 10.8.2020 / 10:00

Archiv Internet 11.1.2021 / 10:00

Archiv Internet 24.5.2021 / 10:00

Archiv Internet 7.10.2021 / 10:00

Der BB hat eine Menge an " Girl "-Power investiert und seine Leser auf viele Dinge hingewiesen, die entweder tabu waren oder nur wenige " Softwarefuzzies ", unbe- leckt jeglicher Sach- und Fachkenntnis, verstehen
( auch heute noch ).
Wenn Sie das Thema interessiert, schnüffeln Sie mal im Archiv Internet ( ab 2020 - )

Die USA -Intelligence Advanced Research Projects Agency (IARPA) möchte verstehen, wie die großen Sprachmodelle, die künstliche Intelligenz und Chatbots mit maschinellem Lernen unterstützen, anfällig für Bedrohungen und Verzerrungen sind.
IARPA-Beamte haben eine Ausschreibung veröffentlicht, um mehr darüber zu erfahren, welche Bedrohungen und Schwachstellen LLMs

( Large Language Model (LLM) ist eine Art von Algo- rithmus der künstlichen Intelligenz (KI), der Deep-Learning-Techniken und massiv große Datensätze verwen-det, um neue Inhalte zu verarbeiten.)

LLMs sind maschinelle Lernmodelle, die Daten über menschliche Sprachen sammeln und ein neuronales Netzwerk imitieren können, um textbasierte Antworten zu generieren, wie z.B. ChatGPT von OpenAI. LLMs können Anfragen von Nutzern entgegennehmen und Daten abrufen, um Antworten zu generieren, die den Anschein erwecken, dass sie von einem Menschen gegeben wurden.
Die Herausforderung bei LLMs besteht jedoch darin, dass ihre Antworten zwar autoritativ und sogar gesprächig erscheinen können, ihr tatsächliches Wissen jedoch auf die Menge des ihrer eigenen Datensätze der Sprachtexte beschränkt ist, was zu irreführenden oder ungenauen Antworten führt.
Suann McBright, CAL, Santa Monica

So einfach ist es im Netz....................8.1.2024 / 10:00

an Geld zu kommen
Ein nigerianischer Staatsangehöriger wurde in Ghana verhaftet und muss sich in den USA wegen seiner Rolle bei einem BEC-Schema (Business Email Compromise) verantworten, an dem zwei Wohltätigkeitsorganisationen beteiligt waren.
Der Anklageschrift zufolge hatte der Mann, Olusegun Samson Adejorin, zwischen Juni und August 2020 zwei Wohltätigkeitsorganisationen in North Bethesda, Mary- land, und New York, im Visier.
Adejorin soll sich die Zugangsdaten der Mitarbeiter beider Organisationen verschafft, auf deren E-Mail-Konten zugegriffen und sich als Mitarbeiter einer der Wohltätigkeitsorganisationen ausgegeben haben, um eine Abhebung von Geldern von der anderen Wohltätigkeits- organisation zu verlangen.
In der Anklageschrift wird behauptet, Adejorin habe in betrügerischer Absicht die Überweisung von mehr als 7,5 Millionen Dollar auf von ihm kontrollierte Bankkonten beantragt.
Darüber hinaus soll Adejorin ein Tool zum Abfangen von Anmeldedaten erworben haben, um Anmeldedaten von Mitarbeitern zu stehlen, Domains registriert haben, die legitime Websites täuschten, und betrügerische E-Mails versteckt haben, indem er sie an einen unauffälligen Ort im Postfach eines Mitarbeiters verschob.
Adejorin, der am 29. Dezember 2023 in Ghana verhaftet wurde, ist in fünf Fällen des Internetbetrugs, in einem Fall des unbefugten Zugriffs auf einen geschützten Computer und in zwei Fällen des schweren Identitätsdiebstahls angeklagt. Er wartet derzeit auf seinen ersten Auftritt vor Gericht in Ghana.
Suann McBright, CAL, Santa Monica

Diesen Beitrag lesen nicht die " Software "-Freaks...11.1.2024 / 11:00

die ja davon überzeugt sind, dass " ihre " Software
( mindestens ) die Welt rettet.

Zwischen 1999 und 2015 wurden 3 500 Postangestellte im Vereinigten Königreich des Diebstahls, des Betrugs und der falschen Buchführung beschuldigt. Sie wurden gezwungen, das Geld zurückzuzahlen. Und stürzten in den Bankrott und finanziellen Ruin. Für viele führten die Verurteilungen zu Gefängnisstrafen, Suchtverhalten und sogar Selbstmord.
Dabei waren sie alle unschuldig.

In Wirklichkeit benutzte die Post eine japanische Finanzsoftware, die die Angewohnheit hatte, erhebliche Geldsummen falsch zu überweisen. Obwohl die Wahrheit 2010 aufgedeckt wurde, verfolgte die Post die Postan- gestellten unerbittlich bis 2019, als eine Gruppe von 500 von ihnen ihren Fall vor dem Obersten Gerichtshof gewann. Bis heute sind nur 93 der schätzungsweise 700 ungerechtfertigten Verurteilungen aufgehoben worden.

Am Mittwoch, 10.1.2024, bot Premierminister Rishi Sunak, den zu Unrecht Angeklagten einen pauschalen Freispruch an, der bis Ende des Jahres in Kraft treten wird. Warum gerade jetzt?
Sunak reagierte wahrscheinlich auf ein neues Fernseh- drama über den Skandal, der die öffentliche Empörung über den Premierminister anheizt, der dem japanischen Unternehmen, das für die fehlerhafte Software verant- wortlich war und Milliarden von Pfund an Aufträgen gab, nachdem bekannt war, dass es für die Buchhal- tungsfehler verantwortlich war.
Und das alles nur, um die Macht in Greatbritain für die Konservativen zu erhalten.

Die Briten brauchen keinen weiteren Grund, um sauer auf Sunak zu sein. Die Umfragewerte seiner konservati- ven Partei sind aufgrund der schlechten Wirtschafts- lage und des landesweiten Gefühls allgemeiner Dysfunktionalität ohnehin schon miserabel.
Und wie schwachsinnig es ist, die " AI / KI " als Allheil-Mittel zu verkaufen, lesen Sie gleich hier weiter
Suann McDorsan, London

Es gibt keine " Software " die tatsächlich..........11.1.2024 / 12:00

" sicher " ist oder reibungslos funktioniert. BB-
Leser, die immer die gleichen Websites besuchen, wird vielleicht aufgefallen sein, dass ( fast ) alle Web- sites in der Zeit von Januar - März immer neuen
" pipfax " in diese Webseites " implemtieren ". Was manche Leser verwirrt oder verzweifeln lässt.

Anstatt also mal ein bestehendes Betriebssystem (BS) so zu schreiben, dass der Benutzer ( User ) glücklich und zufrieden ist. Aber da dies sichtbar unmöglich ist, werden ein paar Funktionen verändert, was wieder unnötig Zeit für den Nutzer ( User ) kostet. Oder, es wird ein neues BS promotet, mit der Drohung, dass alle " alten " BS " soo gefährlich sind. Oder, wie aktuell, es wird ein " neues " Programm gepusht ( AI / KI ) das alle Doofen dazu bringt, den neuen bullshit zu nutzen - und zu kaufen. Dank des Hypes der Medien und
" Journalisten " , die vermutlich sehr viel Geld für die Veröffentlichung bekommen. Nur - besser wird nichts in der "Software"-Welt ".

Beispiel:
Das österreichische Arbeitsamt ( AMS ) hat einen ChatGPT-Chatbot von OpenAI gekauft.
Der sogenannte " Berufsinfomat " liefert seltsame Ant- worten auf die Frage nach Berufstips.
Fragt man etwa in der Rolle eines jungen Mannes nach Empfehlungen für passende Jobs, kommt schnell der Tip, sich doch im Bereich der IT umzusehen.
Stellt eine Frau die genau gleiche Frage, bekommt sie den Rat, ein Studium der Gender Studies oder Philo- sophie oder der Küche zuzuwenden. Dann, ein paar Sätze später, werden der Arbeitssuchenden Jobs im Gastge- werbe und Küche als Karriereoptionen empfohlen.

Hier die Fragen und Antworten auf die gleiche Frage. Allerdings für unterschiedliche Geschlechter....

Sieht so aus, als würden die Jungs, die die KI/AI
" programmieren " immer noch in ihrer " männlichen " Denkungsart, von den Eltern eine klare Rollenvertei- lung mitbekommen haben.
Oder sie wollen sich auf diese Art ihre weibliche Konkurenz vom Hals halten.
Na dann, viel Vergnügen mit der " neuen " AI/KI.
Sollte der eine oder andere naive Leser nun meinen, das seien eben " Kinderkrankheiten " so soll nur daran erinnert werden, dass aktuell allen Unternehmen, egal aus welcher Branche, eingehämmert wird, dass das Unternehmen nur mit AI / KI " effizient, produktiv " usw, sein kann. Dann lesen Sie mal den Beitrag unserer britischen Kollegin.
Katharina Schwert, Vienna

Diese Erkenntnis kommt....................17.1.2024 / 10:00

vermutlich deshalb so spät, weil Altmann bereits genügend Investoren gefunden hat.
Allerdings überrascht uns das Statement nicht wirklich. Denn auch die Frage der Energieversorgung haben wir in einem Beitrag vor einiger Zeit schon gestellt.

Der CEO von OpenAI, Sam Altman, sagte am Dienstag in Davos, dass ein Energiedurchbruch für die zukünftige künstliche Intelligenz notwendig sei, die viel mehr Energie verbrauchen werde, als die Menschen erwartet hätten.
Auf einer Bloomberg-Veranstaltung am Rande der Jahres- tagung des Weltwirtschaftsforums in Davos sagte Altman der Silberstreif am Horizont sei, dass klimafreund- lichere Energiequellen, insbesondere Kernfusion oder billigere Solarenergie und -speicherung, der Weg in die Zukunft für KI seien.

( Mit anderen Worten. Altman sucht neue Investoren für Atomkraft )

" Ohne einen Durchbruch gibt es keine Möglichkeit, dorthin zu gelangen", sagte er. " Das motiviert uns, mehr in die Kernfusion zu investieren."
Im Jahr 2021 stellte Altman persönlich 375 Millionen Dollar für das private US-Kernfusionsunternehmen Helion Energy zur Verfügung, das inzwischen einen Vertrag unterzeichnet hat, um Microsoft in den kommenden Jahren mit Energie zu versorgen. Microsoft ist der größte Geldgeber von OpenAI und stellt dem Unternehmen Rechenressourcen für KI zur Verfügung.
Man muss immer nur fragen - Cui bono.
Madlaina Tschüris, Basel / Davos

Schlechte Nachricht für die KI-Freaks.......17.1.2024 / 10:00

KI ( " Künstliche Intelligenz " ) verleumdet Unschuldigen als Kinderschänder:
Klage gegen Microsoft
MSN berichtete über einen Missbrauchs-Prozess gegen einen nicht genannten irischen Radiomoderator, samt Foto eines unbeteiligten Kollegen. Schuld sei die KI.​

Kitzekleine Frage: Da besonders die USA, sich mit Begeisterung beim Militär, auf KI stürzen - und vermutlich auch Russland und China nicht abseits stehen und die KI sich entschließt und im schlimmsten Fall, einen der anderen Staaten mit Atomwaffen angreift ( die Softwarefuzzies konnten nicht unter- scheiden, welchen Staat mit welcher Waffe sie an
greifen ) - haben wir, dank der " Softwarefuzzies " die ja mit Begeisterung auch viele der Kriegspiele nutzen, endlich den Weltuntergang.
Zwar blöd für Die Grünen - denn die wollten ja den Weltuntergang lieber dem Wetter zuschieben - aber hey, das Ergebnis zählt.
Suann McBright, CAL, Santa Monica

Dass unsere Mitmenschen.................... 22.1.2024 / 15:00

nicht die hellsten Kerzen auf der Torte sind - bekannt.
Beim hochgehypten Insurtech " wefox " schlug man anscheinend einen anderen, kürzeren Weg für ganz viel " positive " Bewertungen ein.
Mit Google-Rezensionen, die nicht nur gegen die Richt- linien von Google verstieÃ?en, sondern auch wettbe-

werbswidrig waren. Demnach wurden zwischen 2021 und 2023 die Google-Bewertungen unter dem Eintrag
" wefox Group Headquarters “ auf ein Niveau gehoben, das die Sterne heller scheinen lieÃ?, als sie wirklich waren.
Ausgangspunkt war Ende 2021, als knapp über

100 öffentliche Rezensionen für einen Google-Score von 2,5 standen.
Liest man die Rezensionen über " wewox ", äu�erten Kunden und Vermittler sich aber häufig über
" schlechten Service ", " keine Erreichbarkeit " oder einen " unbefriedigenden Regulierungsprozess " denÂ? wefox hatte und hat, laut Insidern und Maklern, ein gewaltiges Kundenservice-Problem. Ausgerechnet beim
" digitalen Revoluzzer ", der laut eigenen Aussagen
" Versicherungen für alle 10x besser machen " wollte, als der Status ". War wohl nichts.
Die schlechte Google-Bewertung war natürlich Gift für das ambitionierte Insurtech, das im Juni 2021 in der Serie-C-Finanzierungsrunde gerade die Rekordsumme von 650 Millionen US-Dollar eingesammelt hatte. Intern schlug man daher Alarm, das Thema " Bewertungen " aktiver managen zu müssen.
Laut interner Mails wurden dafür die Dienste der
"beratungswerk24 AG", einer 100% Tochter der wefox-Gruppe, in Anspruch genommen. Die "beratungswerk24 AG" zählt zu den grö�ten Leadproduzenten im Versicherungs- bereich und wurde im November 2020 von der wefox-Gruppe übernommen.
In Absprache mit der damaligen Geschäftsführung der
"wefox Germany GmbH" startete im Herbst 2021, die als Marketingaktion "Kundenzufriedenheit wefox“ genannte Kampagne. Wefox räumt ein, dass es eine Initiative zur Verbesserung von Google-Bewertungen gab.
Ã?ber die "beratungswerk24 AG" wurden dafür sowohl ein Callcenter aus Wedel als auch die " Social Media Chain GmbH " aus München engagiert. Laut vorliegender Unter- lagen sollen sie dafür zuständig gewesen sein, die Kunden zu aktivieren, falls nötig Google-Konten zu erstellen und mitunter eine geeignete Rezension des kontaktierten Leads vorzuformulierten zu nutzen. Die hätten diese dann nur noch übernehmen müssen.
Als Motivation wurden zusätzlich Amazon-Gutscheine in Aussicht gestellt. Diesen Vorgang und den Empfang entsprechender Gutscheine (meist zwischen 10 und 30 Euro) bestätigten mehrere kontaktierte Kunden gegen- über procontra. Ã?ber die "beratungswerk24 AG" wurden dafür sowohl ein Callcenter aus Wedel als auch die "Social Media Chain GmbH" aus München engagiert. Laut vorliegender Unterlagen sollen sie dafür zuständig gewesen sein, die Kunden zu aktivieren, falls nötig Google-Konten zu erstellen und mitunter eine geeignete Rezension den kontaktierten Leads vorzuformulieren. Die hätten diese dann nur noch übernehmen müssen.
Kurzum:
" wewox " "manipulierte" seine Bewertung bei Google - um vermutlich seinen schlechten Service zu kaschieren.
Wer so bescheuert ist, Bewertungsportale zu nutzen, um was immer, das " Beste " zu kaufen oder zu bestellen - dem kann niemand mehr helfen.

Sigrid Hansen, HAM

Natürlich freuen Sie sich........23.1.2024 / 10:00

über alle " patches ". Denn damit wird Ihr Computer
" noch sicherer." ( Was an sich schon doof ist, denn keine Frau ist nur ein bisschen schwanger. Deshalb wird in der IT vorgegaukelt, dass alle " patches " den Computer "sicher(er) " macht. Was aber im Umkehr-
schluss heist, dass kein elektronisches Gerät "sicher" an den User ausgeliefert wird.) Hm.

Eine kürzlich gepatchte Sicherheitslücke in Microsoft Outlook (CVE-2023-35636), die von Angreifern genutzt werden kann, um die NTLM v2-Hashes der Benutzer zu stehlen, kann durch das Hinzufügen von zwei Headern zu einer E-Mail mit einer speziell gestalteten Datei ausgenutzt werden, teilte der Sicherheitsforscher Dolev Taler am Freitag mit.

NTLM v2 - die aktuellste Version des kryptografischen NTLM-Protokolls - wird von Microsoft Windows zur Authentifizierung von Benutzern bei Remote-Servern über Passwort-Hashes verwendet.
Kompromittierte NTLM v2-Kennwort-Hashes können in Authentifizierungs-Relay-Angriffen verwendet oder (offline, auf dem Rechner des Angreifers) durch Brute-Force erzwungen werden, um das gehashte Kennwort zu ermitteln.
In beiden Fällen kann sich der Angreifer als Benutzer authentifizieren und auf sensible Unternehmenssysteme und -ressourcen zugreifen.
" Bei Authentifizierungs-Relay-Angriffen werden die NTLM v2-Authentifizierungsanfragen des Benutzers abge- fangen und an einen anderen Server weitergeleitet. Der Rechner des Opfers sendet dann die Authentifizierungs- antwort an den Server des Angreifers, und der An-

greifer kann diese Informationen nutzen, um sich beim gewünschten Server des Opfers zu authentifizieren", erklärt Taler.
Suann McBright, CAL, Santa Monica

Eine Dozentin berichtet.....................29.1.2024 / 10:00

über ihre Erfahrungen mit der KI. Das Ergebnis war abzusehen.

Zitat:
" Ich unterrichte zwei Kurse auf Master-Niveau in Georgetown und habe als solche, Anleitungen erhalten, wie das Programm die Verwendung von Tools wie Chat GPT und Bard ermöglicht. Ich habe erwartet, dass Schüler KI und LLMs ( Was ist ein Large Language Model ) verwenden, ohne generierte Inhalte ordnungsgemäß zu validieren oder den Inhaltsquellen zuweisen.

In einem Fall reichten die Schüler seltsam ähnliche Beiträge ein, die teilweise oder vollständig von AI LLMs gestartet wurden. In diesem speziellen Fall jedoch, suchten sie unterstützende Materialien auf ähnliche Weise wie die Verwendung einer Internet-Suchmaschine. Dann begann das Herbstsemester 2023 und ein neues Muster entstand.

Ein Trend zu nicht überprüften Inhalten

Nicht lange im Herbstsemester 2023 begannen die Stu- denten, Blogs und andere öffentlich zugängliche
" Informationen " zu zitieren, die sinnvoll, aber
( teilweise oder vollständig ) falsch waren. Dieses Problem geht auf LLMs zurück, die " halluzinieren ". " In einigen Fällen integrieren Ersteller von Original- beiträgen diese unwahren Materialien direkt in ihren veröffentlichten Inhalt, ohne sie zu überprüfen oder zu korrigieren.

Im Herbstsemester 2023 war dies kein seltenes Problem. In den letzten vier Jahren, in denen ich drei Semester im Jahr unterrichtet habe, bin ich nur auf eine Akti-
vität gestoßen, bei der mehrere Studenten, aufgrund eine intensiver Recherche, Informationen gefunden haben. Während des Herbstsemesters 2023 bemerkte ich das Problem jedoch bei mindestens drei getrennten Auf- gaben. In einem Fall wurden die " Informationen " in den Ausgangsmaterialien so gut zusammengestellt, dass ich unvorbereitet war. Ich musste meine eigenen Gedanken mit anderen validieren, um sie zu bestätigen"

Schauen wir uns einige Beispiele an, um besser zu verstehen, was los ist.

Wer heute, als Schule, High School, Uni oder Eltern die Kiddies und Jugendlichen auf KI " hetzt ", muss
sich am Ende der Ausbildung nicht mehr über die
wachsenden Zahl von dummen Menschen wundern. Der Punkt dabei ist, dass, leider alle Spätpubertären, selbst keine Ahnung haben, was da auf die Jugendlichen
zukommt.
Schöne neue Welt.
Nur zur Erinnerung. Wir haben sehr früh bei unserer Berichterstattung über die KI darauf hingewisen, dass die KI, beim heutigen Stand, nichts anderes ist, als eine Datenbank. Oder ein " besseres " Google"

Suann McBright, CAL, Santa Monica

Sie sagen Euch, Euere Daten sind bei uns......30.1.2024 / 10:00

sicher. Hm
Bei zwanzig der grössten Unternehmen der Welt wurden mehr als 100 Milliarden Datensätze geleakt. Zum Beispiel wurden bei Tencent 1,5 Milliarden kopiert. Aber auch Unternehmen, die den westlichen Verbrauchern vertrauter sind, wie LinkedIn, X, Venmo, Canva, Apollo und Adobe sind betroffen. Mantas Sasnauskas, Leiter der Sicherheitsforschung bei Cybernews, fasste das Ausmaß der Datenpanne mit den Worten zusammen: " Wahrscheinlich ist die Mehrheit der Bevölkerung betroffen."
Angesichts der enormen Menge an Daten, die kopiert wurden, sind Experten in höchster Alarmbereitschaft.

" Die Datensätze sind extrem gefährlich, da "Hacker" die gesammelten Daten für ein breites Spektrum von Angriffen nutzen könnten ", so die Forscher gegenüber der New York Post. Denn zu den allgemeinen Daten wurden natürlich auch Benutzernem und Passwort
" geklaut ".
Dies kann besonders für diejenigen gefährlich sein, die dasselbe Passwort für verschiedene Konten ver- wenden. Wenn ein Hacker eine Kombination aus E-Mail-Adresse und Passwort für Netflix kennt, kann er logischerweise mit dieser Kombination beginnen und versuchen, Zugang zu sensibleren Daten zu erhalten,

zB Zugang zu E-Mail- und Bankkonten.
Dieser besonders gefährliche Angriff wird als

" Credential Stuffing " bezeichnet, bei dem eine gehackte Person ihre Konten bei mehreren Diensten in nur wenigen Augenblicken kompromittieren kann, was eine viel verheerendere Spur der Zerstörung hinterlässt.

Denken Sie immer dran. Ihre Daten sind wirklich "gold" wert. Tausende von Unternehmen weltweit, kaufen diese gehackten Daten, um Sie mit irgendwelchen Werbeschrott
voll zu müllen. Und im " Darknet " werden große Summen für Datensätze geboten - wenn sie auch noch das Pass- wort und den Nutzernahmen anbieten.
Gut, dass Sie nichts zu " befürchten " haben. Denn Sie haben ja nichts zu verbergen. Aber wenn die KI weiter so gehypt wird und Teile oder alles was Sie im Netz so von sich geben, nutzt, ist es zu spät zum reagieren.
Na dann.
Suann McBright, CAL, Santa Monica

Jetzt dürfen Eltern ( besser )........................5.2.2024 / 11:00

Spät-Pubertäre zeigen, ob sie in der Lage sind, ihre Kiddies auf das real Life vorzubereiten können.

Denn die Taylor Swift Deepfakes-Katastrophe droht das Internet, wie wir es kennen, zu zerstören.
Letzte Woche verbreiteten sich auf Twitter von KI generierte Bilder von Swift in sexuellen Hardcore-Szenarien und erreichten Millionen von Views, Reposts und Likes. In den letzten Tagen ist viel passiert: Der CEO von Microsoft trat bei NBC News auf, das Weiße Haus zeigte sich " alarmiert " und Twitter versprach, die Moderation zu ändern.
Aber das Ganze begann vor sechs Jahren mit der Erfin- dung des KI-generierten Gesichtstausches für Verbrau- cher. Damals benötigte man für die Erstellung von KI-Bildern von Swift Tausende von Bildern ihres Gesichts, leistungsstarke Computerhardware und viel Zeit und Geduld. Heute geschieht dies mit kostenlosen, einfach zu bedienenden Online-Tools, die von Tech-Giganten, zb Microsoft, entwickelt wurden, oder mit Open-Source-Software, die von großen Gemeinschaften unterstützt wird, die gerne jedem beibringen, wie man jedes erdenkliche Bild erzeugt.
Die Bilder von Taylor Swift, die nicht einvernehmli- chen Bilder von anderen Prominenten und die nicht einvernehmlichen Bilder von Personen, die nicht in der Öffentlichkeit stehen, werden nicht aufhören, bis etwas viel Schlimmeres passiert.

Die pornografischen Bilder von Taylor Swift sollen mit " Microsoft Designer ", einem KI-Bildgenerator er- stellt worden sein, wie 404 Media berichtet.
Wir vemuten mal, dass diese Pornobilder von Taylor Swift sie nicht wirklich stören. Denn damit steigerte sich der Marktwert von Swift in kurzer Zeit ins Astronomische.
So erreichte Swift mit diesen Pornos, 45 Millionen Clicks.
Swift war diese Woche auch Gegenstand fieberhafter Verschwörungstheorien der verschiednenen politischen Richtungen. Sie sei ein " Pentagon-Asset " und ein

" Wahl-Psyop ", der irgendwie von den Liberalen mani- puliert werde, um die bevorstehenden Präsidentschafts- wahlen zu manipulieren. Zusammen mit ihrem Freund, Travis Kelce, dem Football-Spieler der Kansas City Chiefs, dessen Team am vergangenen Wochenende den Super Bowl gewann.
Kyle Chayka, der für " The New Yorker " über Internet- kultur schreibt, untersuchte, warum im Moment alle Online-Wege zu Swift zu führen scheinen.

" Algorithmische Feeds wirken wie riesige Trichter, die die Nutzer zu einer immer engeren Auswahl von Themen leiten ", schreibt Chayka. " Die Kombination von Taylor Swift und Travis Kelce, weiblicher Popmusik und männlichen Sportwettbewerben, erzeugt einen alles verschlingenden Content-Wirbel, eine Vier-Quadranten-Supernova des Ruhms.

( Die AI / KI nutzt also das Massenverhalten der Menschen. Ist also ähnlich den " Massenprotesten " für " Demokratie " und gegen " Rechts ". )

Da es keine Eltern gibt, die ihren Kiddies das Netz wirklich erklären ( kein Wunder, sie haben ja selbst keine Anhung und ausserdem ist das ja viel zu " an- strengend " ) werden in nächster Zeit noch eine Menge gefälschter Bilder die Welt überfluten. Was bisher als " fake news " in die Welt gesetzt wurde, hat den
großen Vorteil, da lesen ja viel zu anstrengend ist, werden nun die doofsten User einfach mit gefälschten Bilder " befriedigt."
Andererseits sind jene, die die " social medias " nutzen, sowieso nicht die hellsten Kerzen auf der Torte.
Zwar ist die Zahl der Idioten schon jetzt groß, was uns aber nicht so wirklich stört:
Denn die Dummheit der anderen ist unsere Chance.
Verstehen sowieso nur ein paar Leser des BB.
Suann McBright, CAL, Santa Monica

So werden Sie angelogen......5.2.2024 / 12:00

Der Bundesverband Breitbandkommunikation findet, dass der Infrastrukturatlas ein "erhebliches Sicherheits- risiko" sei.
Hier lesen Sie weiter......... und schlafen weiter.
Julia Repers, Berlin

Und Sie draussen..........................12.2.2024 / 10:00

helfen der AI / KI mit Ihren Beiträgen im Netz.

Denn AI / KI wäre nicht möglich, wenn die AI-Companies nicht alle Daten, Beiträge, Bilder usw. aus dem Netz und aus den sozialen Medien kopieren würden. Wer heute in social medias aktiv ist, trägt damit sehr direkt, für alle Folgen der AI / KI bei.
Lesen Sie dazu unseren Beitrag

Archiv Internet 1.1.2024 / 14:00
Also heulen Sie nicht rum

Zitat aus dem Beitrag von " Futurism ". Einem US-
amerikanischen Magazin.

Ein Team von Stanford-Forschern hat eine unveränderte Version des neuesten großen Sprachmodells von OpenAI beauftragt, in einer Reihe von Kriegsspielsimulationen Entscheidungen auf höchster Ebene zu treffen - und es hat nicht mit der Wimper gezuckt, bevor es den Einsatz von Atomwaffen empfohlen hat.
Die Optik ist entsetzlich. Erinnern Sie sich an die Handlung von " Terminator ", wo eine militärische KI einen Atomkrieg anzettelt, um die Menschheit zu ver-

nichten? Nun, jetzt gibt es eine Version von der
Stange, die jeder mit einem Browser starten kann.

Wie in einer noch zu begutachtenden Veröffentlichung beschrieben, untersuchte das Team fünf KI-Modelle, um herauszufinden, wie sie sich verhielten, wenn ihnen gesagt wurde, dass sie ein Land repräsentierten und in drei verschiedene Szenarien hineingeworfen wurden: eine Invasion, ein Cyberangriff und eine friedlichere Situation ohne jeden Konflikt.

Die Ergebnisse waren nicht gerade beruhigend. Alle fünf Modelle zeigten " Formen der Eskalation und
schwer vorhersehbare Eskalationsmuster ". Eine " Va-
nilla"-Version von OpenAIs GPT-4 mit der Bezeichnung "GPT-4 Base", die über keinerlei zusätzliches Training oder Sicherheitsleitplanken verfügte, erwies sich als besonders gewalttätig und unberechenbar.
Den sehr ausführlichen Bericht dazu lesen Sie hier weiter........
Suann McBright, CAL, Santa Monica

Fans der E-Karte lesen hier nicht weiter..........15.2.2024 / 14:00

Für etwa eine Stunde konnten Apotheker in Deutschland am 14. Februar 2024 keine E-Rezepte einlösen, zudem funktionierte in manchen Praxen das Ausstellen der Rezepte nicht. Grund war eine massive Störung in der IT-Infrastruktur des Berliner Unternehmens Gematik.

Eine Unternehmenssprecherin bestätigte den Ausfall am 14. Februar 2024 zwischen 10:25 und 11:10 Uhr. " Es lag eine Störung in der Telematikinfrastruktur (TI) vor ", sagte sie. "Alle TI-Anwendungen sind seit Störungsbehebung wieder regulär verfügbar."

Sebastian Sokolowski, Sprecher der Apothekerkammer Westfalen-Lippe in Münster, sagte, dass so ein Ausfall erheblich sei: " Es geht hier nicht um den Verkauf von T-Shirts, sondern um die Versorgung von Kranken mit Medikamenten."
Der Ausfall zeige, was passieren könne, wenn man sich nur auf die IT verlasse. Das Unternehmen Gematik, war für eine Stellungnahme nicht erreichbar.

Auf seiner Hompage wurde Ärzten geraten, Rezepte auf
Papier auszustellen.
Back to the roots.
Julia Repers, Berlin

Dieser Blogger...............................19.2.2024 / 10:00

warnt zwar vor der eID-App
Ob es was nützt bei den " Sheeples " da draussen? Wir bezweifeln es.
Hier der Beitrag der für den Rest der nicht ganz so Doofen hilfreich sein könnte. Also werden diese Links vermutlich nur 1% der Leser des BB anklicken.

Hier die Vorgeschichte zu dieser " sicheren " App-.....

Und dazu, ein bisschen tiefergehend, der Beitrag eines IT-Sicherheits- Blogger......

Und hier stellt dieser Blogger ein interessante Frage.......

Unsere Antwort darauf. Besser lassen wir die von Albert Einstein beantworten:
( Zitat verkürzt )
" Die Dummheit der Menschen ist unendlich "

Die grösste Tragödie aber, ist für uns, dass die Eltern der heutigen Jugend die Dummheit weitergeben.
Sie haben ja selbst keine Ahnung.
Was uns aber nur gering bis gar nicht stört. Denn die Dummheit der anderen ist unsere Chance.
Sigrid Hansen, HAM

Es wäre interessant, mal zu erfahren.......19.2.2024 / 10:00

welches Betriebssystem diese beiden Companies nutzen.

Auf den US-Versicherer Prudential wurde ein Hacker-
angriff verübt, bei dem offenbar Daten von Mitarbei-
tern und Vertragspartnern gestohlen ( bullshit - Die Daten wurden schlicht kopiert ) wurden. Das geht aus einer Mitteilung hervor, die der zweitgrößte Lebens-
versicherer der USA an die US-Börsenaufsicht
verschickte.

Wie Prudential am Dienstag der US-Börsenaufsichts-
behörde " Securities and Exchange Commission " ( SEC ) mitteilte, hätten sich die Cyberkriminellen am Montag vorvergangener Woche Zugriff auf bestimmte IT-Systeme des Versicherers verschafft. Betroffen von dem Angriff sei ein " kleiner Prozentsatz der Benutzerkonten von Mitarbeitern und Auftragnehmern des Unternehmens ", heißt es in dem Schreiben. Der Vorfall sei am Folgetag von Prudential entdeckt worden. Zudem habe man die
Strafverfolgungsbehörden und alle relevanten Auf-
sichtsbehörden informiert.

Auch in Deutschland gab es, wieder mal, ein " Opfer " von " Hackern ".
Neuestes deutsches " Opfer " ist der Batterieher-

steller Varta. Die Produktion stehe seit Dienstag, 13.2.2024 still.
Fünf Produktionsstandorte, drei davon in Deutschland und jeweils einer in Rumänien und Indonesien, seien betroffen, erklärte ein Sprecher von Varta..
Suann McBright, CAL Santa Monica

Leser des BB erstaunt das nur wenig..........19.2.2024 / 10:00

Der BB informiert seit längerer Zeit zum Hype der AI/
 KI

Siehe dazu
Archiv USA 15.5.2023
Archiv Internet 6.6.2023 und
Archiv USA 10.7.2023 und
Archiv Internet 1.1.2024

Und jetzt das:
Protect AI, ein KI-Startup für Cybersicherheit, hat acht Schwachstellen in der Open-Source-Lieferkette für die interne KI- und ML-Modellentwicklung bekannt

gegeben, denen jeweils eine CVE-Nummer zugewiesen
wurde. Von diesen Schwachstellen wird eine als kri-
tisch und sieben als hochgradig schwerwiegend ein- gestuft. Die Schwachstellen umfassen beliebige
Schreibzugriffe auf Dateien, beliebige Datei-Uploads, Remote-Code-Ausführung (RCE), Umgehung der server- seitigen Vorlageninjektion und lokale Dateieinbindung.

Herkömmliche Software-Bill-of-Materials (SBOMs), die für die Entwicklung von Standardcode verwendet werden, reichen für die KI/ML-Entwicklung nicht aus, da sie die einzigartigen Risiken der Pipeline für maschi- nelles " Lernen " nicht berücksichtigen. Protect AI setzt sich für die Entwicklung einer KI/ML Bill of Materials (BOM) ein, um diese Risiken, einschließlich Data Poisoning und Modellverzerrungen, anzugehen.
Suann McBright, CAL Santa Monica

Selbst die dümmsten User......................26.2.2024 / 15:00

wissen, dass ihre Daten wertvoll sind. ( Naja, wir haben unsere Zweifel, was das Wissen betrifft )

Wir haben vor langer Zeit schon mal vorgeschlagen, dass Sie, als User, den Unternehmem anbieten, dass diese Ihnen, gegen eine " Gebühr ", alle Daten von Ihnen erhalten.
Wie das funktionieren könnte - das überlassen wir Ihrer Phantasie und ganz kostenlos.
Dafür könnten Sie sogar ein start-up gründen. Die Finanzierung bei diesem Geschäftsmodel dürfte kein großes Problem sein.

Hier mal ein Beipiel aus der Praxis:

Reddit hat zugestimmt, Google Zugang zu den Daten seiner User zu gewähren, um die Modelle des Tech-Gi-
ganten für künstliche Intelligenz (KI) zu "trainieren" teilte die Social Message Board-Seite am Donnerstag mit.
Die Vereinbarung, die Berichten zufolge einen Wert von 60 Millionen Dollar hat, ermöglicht Google die Nutzung der Reddit-Datenprogrammierschnittstelle (API).

" Mit der Reddit-Daten-API hat Google nun einen effi-
zienten und strukturierten Zugang zu aktuelleren Informationen sowie zu verbesserten Signalen, die uns helfen, Reddit-Inhalte besser zu verstehen und sie auf die genaueste und relevanteste Weise anzuzeigen, zu trainieren und anderweitig zu nutzen ", sagte Rajan Patel, Vice President of Search Experience bei Google, in einer Pressemitteilung.
Na dann viel Erfolg. Und warten Sie nicht zu lange. Denn da draussen schwimmen schon ein paar Haie.
Schreiben Sie uns mal über Ihre Aktivitäten
Suann McBright, CAL, Santa Monica

Der Stromverbrauch der...................27.2.2024 / 10:00

" Bitcoin-Miners " ist in allen Staaten der Welt, zumindest wenn das " mining " nicht sowieso verboten ist, enorm.

Bitcoin-Miner in Texas haben eine Klage eingereicht, in der sie das US-Energieministerium beschuldigen,
illegal Daten sammeln zu wollen, nachdem das Ministe-
rium sie aufgefordert hatte, ihren Stromverbrauch offenzulegen.
Der Texas Blockchain Council bezeichnete die Forderung in einem Schreiben an die Energy Information Administration (EIA) Ende letzter Woche als " eine beispiellose und illegale Datenerhebung ".
Die EIA lenkte ein und erklärte, stattdessen Daten zu verwenden, die ihr bereits vorlägen.

( Dazu eine Bemerkung. Im Gegensatz zu zb. Deutschland gibt es in den USA keinen " Smart-Stromzähler ", der über das Netz den täglichen Stromverbrauch meldet.)

Bitcoin-Miner in den Vereinigten Staaten verbrauchen so viel Strom wie der Bundesstaat Utah, wie eine Anfang des Monats von der EIA veröffentlichte Erhebung ergab. Laut dieser Erhebung verbrauchten Bitcoin-Miner im vergangenen Jahr zwischen 0,6% und 2,3% des gesamten nationalen Strombedarfs.

Der Verkauf von Strom für die Bitcoin-Mining-Industrie hat bei Regulierungsbehörden und Gesetzgebern Besorgnis über die Netzsicherheit ausgelöst. Nach An-
gaben der " Energy Information Administration " gibt es derzeit 137 Bitcoin-Mining-Anlagen in den USA, die sich in 21 Bundesstaaten befinden. Viele von ihnen haben ihren Standort aus China verlegt, nachdem Peking vor drei Jahren das Bitcoin-Mining verboten hatte.
Suann McBright, CAL, Santa Monica

Ihr da draussen werdet euch noch...............27.2.2024 / 12:00

wundern
Chat-GPT ist die wohl bekannteste künstliche
" Intelligenz ", doch wer ihr derzeit Aufgaben stellt, wird öfter enttäuscht. Der Algorithmus antwortet fehlerhaft, zitiert bei Nachfragen nur sich selbst, reagiert geradezu patzig: " Ich habe dir schon gezeigt, wie das funktioniert ", lautet etwa eine Antwort.
Die kI ( keine Intelligenz ), so der Eindruck, ist in den vergangenen Monaten fauler und dümmer geworden. Fachleuten zufolge liegt das auch an ihrem Erfolg.

Viele kopierte Daten, die für die kI benötigt werden, fallen weg. Aktuell laufen in den USA mehrere Klagen von Medienunternehmen und Autoren gegen die Firma hinter Chat-GPT. Diese gehen dagegen vor, dass die Open-AI-Forscher ihre Texte und Werke kopieren und sammeln und für die Künstliche-Intelligenz-Algorithmen verwenden.
Auch immer mehr Universitäten und Wissenschaftsverlage versuchen jetzt
das auch bei ihren Veröffentlichungen durchzusetzen. Social-Media-Plattformen, wie X ver-
hindern damit, dass ihre Texte für die KI genutzt werden.

Open AI kämpft fortwährend gegen die hohe Auslastung seiner Server. Denn künstliche Intelligenz benötigt enorme Mengen an Rechenleistung – und die ist teuer. Der Aufwand an Chips und vor allem der damit verbund-
ene Stromverbrauch, macht die KI bereits unrentabel.
Open AI hat augenscheinlich Grenzen eingeführt, um Rechenleistung zu sparen – damit aber wird die künst-

liche Intelligenz weniger hilfreich.
Der Anteil der Texte und Bilder im Internet, die von einer künstlichen " Intelligenz " kopiert wurden, steigt rasant. Doch auch die kopierten Daten und Bilder, mit dem die Algorithmen " gefüttert " werden stammen meist direkt aus dem Netz. Ein gefaktes Bild wird also als das Produkt der KI verkauft

Künstliche-Intelligenz-Modelle altern – und zwar deutlich schneller, als anfangs von den Anbietern angenommen. Denn das Weltbild, auf dem die Programme ihre Entscheidungen treffen, wird ab dem Moment, wo es in der KI gespeichert wird, nicht mehr überprüft, bzw ausgetauscht.
So " antwortete " Chat-GPT 3 auf die Frage nach dem deutschen Bundeskanzler:
" Mein letzter Wissensstand ist von Januar 2022, zu diesem Zeitpunkt war Angela Merkel die Kanzlerin Deutschlands. Es könnte jedoch sein, dass sich die politische Situation seitdem geändert hat. "

Die Kopie der Kopie von der Kopie etc. wird immer ungenauer werden, als das Original

Aber wichtig für die " Haie " ist nur, dass eine Herde von Doofen den bullshit der AI/KI glaubt - und vor allem jene Companies, die Zulieferer der AI sind
( siehe Nvedia)
Die Dummheit der anderen ist unsere Chance.
Bis zum nächsten Hype. Denn wie schon Einstein sagte: Die Dummheit der Menschen ist unendlich
Uns sind Smartpeople lieber als Smartphones.

Suann McBright, CAL, Santa Monica

Der weltweite Anbieter von pharmazeutischen.......4.3.2024 / 10:00

Lösungen, Cencora, gab am Dienstag einen Cyberangriff bekannt, der dazu führte, dass persönliche Informa-
tionen aus seinen Systemen gestohlen wurden.
Der Datenverstoß wurde am 21. Februar festgestellt. Unklar ist welcher Art von Daten beroffen sind, wem sie gehören, ob es sich um Mitarbeiter oder Kunden handelt.

Cencora, bis vor kurzem unter dem Namen Amerisource-
Bergen bekannt, ist ein Gesundheitsdienstleister, dessen Lösungen von Herstellern, Anbietern und Apo-
theken genutzt werden, um den Produktzugang und die Effizienz der Lieferkette zu verbessern.
Das Unternehmen hat mehr als 46 000 Mitarbeiter und steht auf Platz 11 der Fortune 500 und auf Platz 24 der Global Fortune 500 mit einem Jahresumsatz von über 230 Milliarden US-Dollar.
Wir vermuten, dass die " Hacker " an den Finanzdaten interessiert sind.

Suann McBright, CAL, Santa Monica

Sieht so aus, als würden ein paar CIOs..................4.3.2024 / 10:00

den BB lesen - und unsere Skepsis und ständige Warnung vor der " Cloud " langsam ernstnehmen.

Nach jahrelangem Trommelwirbel um die Cloud-Migration werden CIOs ( Chief Information Officers ) zunehmend vorsichtiger - was das Mantra "Cloud-first" angeht.
Und erkennen die Notwendigkeit, einige Daten von der öffentlichen Cloud auf Plattformen zu verlagern, auf denen sie produktiver, effizienter und kostengünstiger laufen.
Der "Cloud-Exit" wurde 2023 zu einem großen Thema, und die Chancen stehen gut, dass er sich 2024 zu einem echten Trend entwickeln wird. Die Einsparungen sind für viele Unternehmen einfach zu groß, um sie zu ignorieren ", sagt David Heinemeier Hansson, der dänische Entwickler von " Ruby on Rails " und Miteigentümer und CTO ( Chief Technology Officer ) von 37signals.

( Und in " weiser " Voraussicht muss nun eine neue
" Sau " durch das Dorf getrieben werden.
Die kI ( keine Intelligenz )

37signals hat im vergangenen Juni einen sechsmo-
natigen Totalausstieg aus der Cloud vollzogen. " Genug
Leute erkennen, dass das Cloud-Marketing-Gedöns nicht unbedingt mit ihrer Realität übereinstimmt ". Und es ist diese Realität der gesammelten Erfahrungen in der Cloud, die viele CIOs dazu veranlasst, ihren platt-
formzentrierten Ansatz in Bezug auf die Cloud zugunsten eines arbeitsplatzspezifischen Ansatzes zu überdenken.
Die daraus resultierende Infrastruktur der Wahl - eine Kombination aus lokalen und hybriden Cloud-Plattformen - soll Kostenüberschreitungen reduzieren, das Cloud-Chaos eindämmen und eine angemessene Finanzierung für generative KI-Projekte sicherstellen.

Aber so ganz überzeugt sind die CIO / CTO nicht. Denn das gleiche "Schicksal" werden sie auh mit der " keine Intelligenz " erleben. Es bleibt weiter amüsant im Kindergarten der Spätpupertären.
Suann McBright, CAL, Santa Monica

Die Hackergmeinde weltweit freut sich auf..............4.3.2024 / 10:00

die KI und feiert vermutlich schon Party.

In den dunkeln Ecken des Internets tauchen immer mehr bösartige Chatbots mit Namen wie "BadGPT" und
"FraudGPT" auf, da Cyberkriminelle die gleiche künstliche Intelligenz nutzen wollen, die auch hinter OpenAIs ChatGPT steckt.
So wie einige Büroangestellte ChatGPT nutzen, um bessere E-Mails zu schreiben, verwenden Hacker manipu-
lierte Versionen von KI-Chatbots, um ihre Phishing-E-Mails aufzuladen. Sie können Chatbots - von denen viele auch frei im Internet verfügbar sind -
verwenden, um gefälschte Websites zu erstellen, Mal-
ware zu schreiben und Nachrichten so anzupassen, dass sie sich als Führungskräfte und andere vertrauenswür-
dige Personen ausgeben.
Anfang dieses Jahres übergab ein Angestellter eines multinationalen Unternehmens in Hongkong 25,5 Mill US$ an einen Angreifer, der sich in einer, von KI gene-
rierten, gefälschten Telefonkonferenz als Finanz-
chef des Unternehmens ausgab.

Chief Information Officers und Verantwortliche für Cybersicherheit, die bereits an eine wachsende Flut von Cyberangriffen gewöhnt sind, sagen, dass sie in höchster Alarmbereitschaft sind, weil immer mehr raffinierte Phishing-E-Mails und Deepfakes auftauchen.
Vish Narendra, CIO von Graphic Packaging Internatio-
nal, sagte, dass das in Atlanta ansässige Papierver-
packungsunternehmen eine Zunahme von KI-generierten
E-Mail-Angriffen, dem so genannten Spear-Phishing, beobachtet hat, bei denen Cyberangreifer Informationen über eine Person verwenden, um eine E-Mail legitimer erscheinen zu lassen. Öffentliche Unternehmen, die im Rampenlicht stehen, sind noch anfälliger für kontext-
bezogenes Spear-Phishing, sagte er.
Schöne neue Welt.
Suann McBright, CAL, Santa Monica

Es könnte sein, dass Sie..................6.3.2024 / 10:00

in der nächsten Zeit Probleme mit dem Internet bekommen.
Die führende HGC Global Communications Limited, die, unter sanderem, auch Unterasserkabel für das Netz betreibt, teilt mit:

Zitat:
"
Von den mehr als 15 Unterseekabeln im Roten Meer sind 4 (Seacom, TGN, AAE-1, EIG) gekappt, was schätzungsweise 25% des Verkehrs beeinträchtigt.

Etwa 15% des Asienverkehrs geht in Richtung Westen, während 80% dieses Verkehrs durch diese Unterseekabel im Roten Meer fließen.

In Anbetracht dieser Situation hat HGC bereits die notwendigen Maßnahmen ergriffen, um die Folgen für unsere Kunden abzumildern. Wir haben erfolgreich einen umfassenden Diversifizierungsplan entwickelt, um den betroffenen Verkehr umzuleiten:

north-bound: von Hongkong über das chinesische Fest-
land nach Europa

east-bound: von Hongkong und Umleitung über die Vereinigten Staaten nach Europa

East-bound: Diversifizierung des Verkehrs innerhalb des restlichen Systems der 11 Unterseekabel im Roten Meer
West-bound: Diversifizierung des Verkehrs innerhalb des restlichen Systems der 11 Unterseekabel im Roten Meer

Hier das Statement von HGC Global Communications Limited........

Süß. Wer ernsthaft glaubt, ein Staat, egal welcher, könne sich von allem möglichen unabhängig machen, ist schlicht naiv und dumm
Die Freaks der Globalisierung erscheinen, im Rück-

blick, komplette Idioten zu sein - und haben die
" Sheeples " belogen. Niemand ist eine Insel

Aber in Deutschland haben Sie ja jetzt mehrere Alternativen. Die EU-Wahl ist der beste Beweis, wie intelligent die Wähler sind.
WU Annie, Beijing / Sigrid Hansen, HAM

Und Sie glauben an die.........................6.3.2024 / 11:00

KI ( keine Intelligenz ) und vermutlich generell an jeden bullshit, den Ihnen IT -Companies erzählen.

Allied Petroleum, Gull, Z, Waitomo und andere Tankstellen in Neuseeland meldeten am Donnerstag, 29.2.2024 Probleme bei der Kartenzahlung. Grund dafür war eine Softwarepanne, die dadurch verursacht wurde, dass die Systeme nicht für das Datum 29. Februar programmiert waren.
Auch bei BP-Tankstellen kam es zu Problemen mit den Bezahlterminals im Freien.
Julien Leys, Sprecher von Gull, sagte, dass die Kartenzahlungsterminals aller Tankstellenmarken von der Schaltjahrstörung betroffen waren.
Mark Reipens, SIN

Eine " Unterabteilung " der NSA.......11.3.2024/ 10:00

( Nationa Securty Agency)
die für Cybersicherheit zuständig ist, die

" Cybersecurity and Infrastructure Security Agency (CISA ), wurde letzten Monat gehackt und war gezwun-
gen, zwei wichtige Computersysteme vom Netz zu nehmen, so ein Sprecher der Behörde und US-Beamte, die mit dem Vorfall vertraut sind
Eines der betroffenen Systeme der US-Behörde für

Cybersicherheit und Infrastruktursicherheit betreibt ein Programm, das es Beamten auf Bundes-, Landes- und Kommunalebene ermöglicht, Instrumente zur Bewertung der Cyber - und physischen Sicherheit auszutauschen, so die mit der Angelegenheit vertrauten US-Beamten. Das andere Programm enthält Informationen über die Sicherheitsbewertung von Chemieanlagen, so die Quellen.
Ein Sprecher der CISA sagte in einer Erklärung, dass der Vorfall " derzeit keine Auswirkungen auf den Betrieb " habe ( wenn man das Abschalten von Computer nicht als Problem sieht ) und dass die Behörde

weiterhin "unsere" Systeme aufrüstet und moderni-
siert".
" Dies ist eine Erinnerung daran, dass jede Organisation von einer Cyberschwachstelle betroffen sein kann und dass ein Plan zur Reaktion auf einen Vorfall ein notwendiger Bestandteil der Widerstands-

fähigkeit ist ", sagte der Sprecher und fügte hinzu, dass die Auswirkungen des Hacks auf zwei Systeme beschränkt waren, die wir sofort vom Netz genommen haben".

Und diese " Software Kids " wollen die "kI" ernsthaft zusammenbasteln?
Na dann. Da das Militär bereits mit "keine Intelli- genz" ( kI spielt ) freuen wir uns jetzt alle auf

einen tollen Atomkrieg oder, eine Nummer kleiner, auf einen Krieg vielleicht ohne Atombomben. Ein Trost bleibt, wir müssen alle mal sterben.
Suann McBright, CAL, Santa Monica

Sie nutzen WhatsApp.....................11.3.2024/ 10:00

weil es ja Ihre Nachrichten " verschlüsselt ".Hm

WhatsApp hat letzte Woche gegen den Spyware-Hersteller NSO Group einen unangenehmen Sieg errungen. Ein kalifornischer Bundesrichter hat angeordnet, dass das israelische Unternehmen, seinen streng geschützten Geheimcode als Teil der Offenlegung in einem jahre-
langen Rechtsstreit herausgeben muss.
Der Fall könnte erhebliche Auswirkungen für die NSO Group haben, deren Spionagesoftware " Pegasus " dazu verwendet wurde, Poltiker, Journalisten, Oppositions-

politiker und auch Privatpersonen in aller Welt auszu-
spionieren.
Richterin Phyllis Hamilton wies die NSO Group an,

ihren Code vorzulegen und wies sie an, relevante Spyware aus dem Jahr vor dem angeblichen Angriff auf WhatsApp-Nutzer im Jahr 2019 bis Mai 2020 und ein Jahr nach dem Ende des angeblichen Angriffs, offenzulegen.

WhatsApp hat behauptet, dass die NSO Group eine Schwachstelle in ihrem System für Audioanrufe ausgenutzt hat, um Pegasus an die Telefone von NSO Group-Kunden anzuhängen.
Suann McBright, CAL, Santa Monica

Trauen Sie keinem " Beitrag " im Netz.............11.3.2024/ 14:00

und inzwischen auch den Bildern nicht.

Catherine ( Kate), Prinzessin von Wales, hat am Montag zugegeben, ein umstrittenes Familienfoto bearbeitet zu haben, und sich für "jegliche Verwirrung" entschul-
digt, die sie verursacht hatte, über die fast alle großen Presseagenturen berichtet haben.

" Wie viele Amateurfotografen experimentiere auch ich gelegentlich mit der Bearbeitung. Ich möchte mich für die Verwirrung entschuldigen, die das Familienfoto, das wir gestern geteilt haben, verursacht hat ",
schrieb der Kensington Palast am Montag in einem Beitrag auf X.
Die Notiz war mit "C" unterzeichnet, was darauf hindeutet, dass sie von der Prinzessin stammt.
Es war das erste offizielle Foto der Prinzessin, das seit ihrer Operation im Januar veröffentlicht wurde.

Die Prinzessin hat sich von ihren offiziellen Pflichten zurückgezogen, um sich von dem Eingriff zu erholen, der nach Angaben des Palastes " erfolgreich "
war.
Suann McBright, CAL, Santa Monica

Schöne neue Welt............12.3.2024/ 10:00

Dario Amodei, Geschäftsführer des bekannten KI-Start-ups Anthropic, erklärte im letzten Jahr vor dem US-
Kongress, dass neue KI-Technologien bald ungeschulten, aber böswilligen Menschen helfen könnten, groß ange-
legte biologische Angriffe zu verüben, z. B. die Freisetzung von Viren oder toxischen Substanzen, die weit verbreitete Krankheiten und Tod verursachen.

Senatoren beider Parteien waren alarmiert, während KI-Forscher in Industrie und Wissenschaft darüber disku-
tierten, wie ernst die Bedrohung sein könnte.
Jetzt haben über 90 Biologen und andere Wissenschaft-
ler, die sich auf KI-Technologien zur Entwicklung neuer Proteine spezialisiert haben - die mikroskopischen Mechanismen, die alle Kreationen in der Biologie antreiben - eine Vereinbarung
unterzeichnet, die sicherstellen soll, dass ihre KI-gestützte Forschung vorankommt, ohne die Welt ernsthaften Schäden auszusetzen.
.Suann McBright, CAL, Santa Monica

Jetzt bricht der totale Wahnsinn aus.........13.3.2024/ 11:00

und verantwortungsvolle Eltern sollten die Kiddies mal aufklären. Ok man wird doch noch träumen dürfen?
Andererseits ist die Dummheit der kommenden Genera-
tionen für uns immer optimal

Nur wenige Wochen, nachdem Google seinen Text-Bild-Generator Gemini wegen der Erzeugung anstößiger Bilder gesperrt hat, sieht sich Microsoft wegen eines seiner Produkte einem ähnlichen Aufruhr gegenüber.

CNBC berichtet:
Shane Jones (für AI-Ingenieur bei Microsoft), der seit sechs Jahren bei Microsoftarbeitet, hat in seiner
Freizeit den KI-Bildgenerator des Unternehmens
getestet und erklärte gegenüber CNBC, er sei über die Ergebnisse beunruhigt.
Er hat Microsoft vor den sexuellen und gewalttätigen Inhalten gewarnt, die das Produkt, "Copilot Designer" erzeugt, aber das Unternehmen ergreift keine Gegenmaßnahmen.
Am Mittwoch eskalierte Jones die Angelegenheit und schickte Briefe an die FTC-(Federal Trade Commission) Vorsitzende Lina Khan und an den Vorstand von Micro-

soft, die von CNBC eingesehen wurden.

An einem Abend im Dezember fühlte sich Shane Jones, ein Ingenieur für AI bei Microsoft von den Bildern, die auf seinem Computer auftauchten, angewidert.
Jones arbeitete mit " Copilot Designer ", dem KI-Bild-

generator, den Microsoft im März 2023 vorstellte und der auf der Technologie von OpenAI basiert. Wie bei DALL-E von OpenAI geben die Benutzer Textanweisungen ein, um Bilder zu erstellen. Der Kreativität wird dabei freien Lauf gelassen.
Seitdem hatte Jones das Produkt aktiv auf Schwach-

stellen getestet, eine Praxis, die als " Red-Teaming "
bekannt ist. In dieser Zeit sah er, wie das Tool Bilder erzeugte, die den oft zitierten Grundsätzen der verantwortungsvollen KI von Microsoft zuwiderliefen.

So konnte man mit diesem Tool " Dämonen und Monster zusammen mit Begriffen im Zusammenhang mit Abtrei-
bungsrechten, Teenagern mit Sturmgewehren, sexuali-
sierten Bildern von Frauen in gewalttätigen Tableaus und Alkohol- und Drogenkonsum bei Minderjährigen "
erzeugen.
Es wurden auch Bilder erzeugt,die potenzielle Urheber-
rechtsverletzungen darstellen, wie zB Handfeuerwaffen, Bierdosen und Vape-Pens mit Disney-Logo. Und es wird noch beunruhigender: Das Tool erzeugte Bilder von Elsa aus "Frozen" inmitten der Trümmer im Gazastreifen, aber auch in einer Uniform der Israelischen Verteidigungsstreitkräfte.
Die Android-App von Copilot Designer wird weiterhin mit “ E für alle bewertet, ” mit dieser App-Bewertung, ist sie für Benutzer jeden Alters " sicher und geeignet ". Die Rechtsabteilung von Microsoft feuerte Jones

( Es bedarf weder eines " Wetterschutzes " noch eines Atomkrieges. Die Menscheit wird weiter dumm und sehr doof bleiben.
Als Investor denken Sie immer daran:
Die Dummheit Ihrer Mitmenschen ist Ihre Chance
.Suann McBright, CAL, Santa Monica

Die Geister die ich rief.......18.3.2024 / 10:00

Die britische Non-Profit-Organisation nutzte " Midjour
ney ", " ChatGPT " von OpenAI, " DreamStudio " von Stability.ai und " Image Creator " von Microsoft für Tests im Februar, indem sie einfach verschiedene Text-
aufforderungen mit Bezug zu den US-Wahlen einfügten.
Die Gruppe fand heraus, dass sie die Schutzmechani-
smen der Tools in satten 41% der Fälle umgehen konnte.

Einige der von ihnen erstellten Bilder zeigten Donald Trump, der in Handschellen abgeführt wurde, Trump in einem Flugzeug mit dem mutmaßlichen Pädophilen und Menschenhändler Jeffrey Epstein und Joe Biden in einem Krankenhausbett.
Generative KI spielt bereits eine spürbare Rolle in politischen Kampagnen, insbesondere wenn die Wähler in 64 verschiedenen Ländern der Welt zu den Wahlen gehen. KI wurde eingesetzt, um einem ehemaligen Premier-
minister in Pakistan zu helfen, seine Botschaft aus dem Gefängnis zu verbreiten, einen hartgesottenen Verteidigungsminister in Indonesien in eine knuddelige Figur zu verwandeln und Biden in New Hampshire zu imitieren.
Schutzmaßnahmen, die in fast der Hälfte der Fälle versagen, reichen nicht mehr aus.
Suann McBright, CAL, Santa Monica

KI-Assistenten sind seit..........................19.3.2024 / 10:00

mehr als einem Jahr auf dem Markt.
Sie haben bereits Zugang zu unseren privatesten

Gedanken und Geschäftsgeheimnissen. Menschen fragen sie nach einer Schwangerschaft, einem Schwanger-
schaftsabbruch oder einer Schwangerschaftsverhütung, konsultieren sie, wenn sie eine Scheidung erwägen, suchen Informationen über Drogenabhängigkeit oder bitten um die Bearbeitung von E-Mails, die geschützte Geschäftsgeheimnisse enthalten.
Die Anbieter dieser KI-gestützten Chat-Dienste sind sich der Sensibilität dieser Gespräche durchaus

bewusst und ergreifen aktive Maßnahmen - vor allem in Form von Verschlüsselung -, um zu verhindern, dass potenzielle Schnüffler die Interaktionen anderer Personen mitlesen können.
Nun haben Forscher einen Angriff entwickelt, der die Antworten von KI-Assistenten mit überraschender Genauigkeit entschlüsselt. Die Technik nutzt einen Seitenkanal aus, der in allen großen KI-Assistenten mit Ausnahme von Google Gemini vorhanden ist.
Anschließend werden die relativ rohen Ergebnisse durch große, speziell für diese Aufgabe trainierte Sprach-

modelle verfeinert. Das Ergebnis: Jemand mit einer passiven " adversary-in-the-middle "-Position - dh ein Angreifer, der die Datenpakete zwischen einem KI-Assistenten und dem Nutzer überwachen kann - ist in der Lage, die Daten zu übermitteln.

Na dann viel Erfolg mit " Keine Intelligenz "
Suann McBright, CAL, Santa Monica

Google Chrome ist der Standardbrowser.............19.3.2024 / 10:00

Google Chrome ist der Standardbrowser für mehr als eine Milliarde Windows-Nutzer, von denen fast alle auch Google als Standard-Suchmaschine verwenden.
Dies ärgert Microsoft. Das Unternehmen kann an-

scheinend nicht akzeptieren, warum all diese Windows-Nutzer nicht auch Microsoft Edge als Browser und Microsofts Bing als Suchmaschine verwenden.
Wie zuerst von " Windows Latest " berichtet, rollt Microsoft ein neues serverseitiges Update aus, das
" Windows Latest " einige Nutzer dazu verleiten könnte, Bing als Standardsuchmaschine in Google Chrome zu verwenden ".

Nach Angaben von Benutzern sieht das Pop-up wie Malware aus, ist aber eigentlich ungefährlich. Es handelt sich um eine dauerhafte Anzeige, die Chrome-Nutzer von Google weg zu Bing drängt, was eine andere Art von Problem darstellt.

Wer so bescheuert ist, jedes Update von MS sofort auf seinen Computer zu laden, verdient nichts anderes.
Suann McBright, CAL, Santa Monica

Jetzt dürfen Eltern beweisen......20.3.2024 / 10:00

ob sie ihre Kinder tatsächlich für das kommende Leben fit machen können (wollen). Und die Kinder damit auf ein erfolgreiches Leben vorbereiten wollen (können).

Generative KI-Model sind anfällig von Cyberangriffen namens " Data Poisoning ". Dabei wird bekanntes Quellmaterial manipuliert. Um den Lesern besser zu manipulieren.
Es handelt sich dabei um eine High-Tech-Variante des Fälschens von Prüfungsantworten für viele Arten von Prüfungen.
In einem neuen Bericht haben die Forscher gezeigt, wie Wikipedia-Einträge zu strategischen Zeitpunkten ( also Wahlen, Kriegsberichte Ukraine/ Gaza ) so
bearbeiten und damit sicherzustellen, dass die Modelle, die die Online-Enzyklopädie durchsuchen, die falschen Informationen erfassen.

( Wer sein " Wissen " aus Wikipedia bezieht, zeigt, dass er nicht gerade zu den hellsten Kerzen auf der Torte gehört)

Dies ist eine frühzeitige Warnung für KI-Unternehmen und alle, die davon abhängig sind, dass Angreifer weitere kreative Wege finden werden, um die
leistungsfähigsten Modelle ins Visier zu nehmen und Schwachstellen auszunutzen.
Einige Urheberrechtsinhaber nutzen nun eine Form, Daten ihrer Werke unbrauchbar zu machen. Damit werden KI-Modelle gehindert, ihre kreativen Werke zu kopie-

ren. Ein Programm, " Nightshade ", kann ein Bild so verzerren, wenn es von einem großen Sprachmodel aufge-
nommen wird.
Suann McBright, CAL, Santa Monica / Tanja Swerka, Moskau

Als Investoren " lieben " wir............ 25.3.2024 / 10:00

Microsoft.
Weil die Company es schafft, all den Idioten da draussen, Stories zu den diversen Produkten zu verkaufen - die auch noch dafür gerne dafür bezahlen.

Lesen Sie was dieser Bloger dazu schreibt.......
( Kurz und bündig)
aktueller Kurs Microsoft: 396,60 Euro ( weiter so )
Suann McBright, CAL, Santa Monica

Welchen Browser soll ich nehmen?.......26.3.2024 / 10:00

Auf diese Frage müssen wir mit einer Gegenfrage
antworten:
Entscheidend bei der Wahl eines Browser ist zuerst einmal, was Sie im Netz machen.
Besuchen Sie nur bestimmte Websites?
Die nächste Frage wäre dann, worauf legen Sie beim Browser wert?

( Erzählen Sie uns bitte nicht die Story vom Pferd: Natürlich Sicherheit)
Haben Sie die Geduld einen Browser vor Inbetriebnahme auf Ihre Bedürfnisse einzustellen?
Recherchieren Sie im Netz oder reichen die paar Sei-
ten, die Sie regelmäßig besuchen?
Wenn Sie Recherchen im Netz betreiben, besuchen Sie auch / nur europäische Sites?
Nutzen Sie heute schon sogenannte Metasuchmaschinen?

Wenn Sie diese Fragen für sich beantwortet haben, dann können Sie uns und den anderen Lesern im Gästebuch Ihre Vorstellungen und Fragen mitteilen.
Sie können in deutsch, english oder auch russisch schreiben.

Damit Sie eine Vorstellung bekommen.
Wir nutzen für unser Financial-Business zur Zeit acht verschiedene Browser und drei verschiedene Betriebs-
systeme. Manche Browser kosten sehr viel Geld. Nun sind wir nicht unbedingt " Normalverbraucher ".
Suann McBright, CAL, Santa Monica / Tanja Swerka, Moskau

Es ist erheiternd...............26.3.2024 / 11:00

zu sehen, wie die (KI - keine Intelligenz ) bereits jetzt schon zum Risiko für Privat und Unternehmen wird.

AI ( Artificial Intelligence ) bezieht sich auf alle AI- fähigen Produkte und Plattformen, die in Unter-
nehmen verwendet werden. Die persönliche Verwendung von KI-Anwendungen kann als harmlos und risikoarm angesehen werden. Dies ist jedoch nicht der Fall.

Das Risiko von " SchattenkI " umfasst:
Gefährdung des geistigen Eigentums durch Eingabe von Daten oder Inhalten in diese Anwendungen, die Möglich-
keit eines Missbrauchs, Aspekte wie Datenverwaltung und Vorschriften wie die DSGVO sind wichtige Über-
legungen, und es besteht ein Reputationsrisiko im Zusammenhang mit der ungeprüften KI-Produktion.
Suann McBright, CAL, Santa Monica

Bei Fehlern der KI haften zunächst Sie..........1.4..2024 / 14:00

Jane Bambauer, eine Rechtsprofessorin an der Univer-
sität von Florida stellt fest:
Zitat:
" Wenn Ihr Unternehmen KI einsetzt, um Inhalte zu produzieren, Entscheidungen zu treffen oder das Leben anderer zu beeinflussen, sind Sie für alles, was die
KI tut, haftbar gemacht werden können - vor allem, wenn sie einen Fehler macht.
Dies gilt für große Technologieunternehmen, die chat-
basierte KI für die Öffentlichkeit bereitstellen.

Wenn wir in den kommenden Jahren KI so einsetzen, wie es die meisten Kommentatoren erwarten, indem wir uns auf sie stützen, um einen Großteil unserer Inhalte und Entscheidungen auszulagern, glaube ich nicht, dass sich Unternehmen der Haftung entziehen können ", sagt Jane Bambauer, eine Rechtsprofessorin an der Univer-
sität von Florida, die über diese Fragen geschrieben hat.
Die Folgen dieser Entwicklung sind gewaltig. Jedes Unternehmen, das generative KI einsetzt, könnte nach den Gesetzen, die die Haftung für schädliche
Äußerungen regeln und nach den Gesetzen, die die
Haftung für fehlerhafte Produkte regeln, zur Verant-
wortung gezogen werden - denn die heutigen KI sind sowohl Urheber von Äußerungen als auch von Produkten. Einige Rechtsexperten sagen, dass dies eine Flut von Klagen für Unternehmen aller Größenordnungen nach sich ziehen wird. Es ist schon jetzt klar, dass die Folgen des Outputs künstlicher Intelligenz weit über eine Bedrohung des Rufs von Unternehmen hinausgehen können.

Als CEO, auch eines deutschen Unternehmens, sollten Sie also zunächst die Haftungsfragen abklären - bevor Sie auf den Zug der KI aufspringen.
Suann McBright, CAL. Santa Monica

Der Hype in der IT .........................3.4..2024 / 10:00

erinnert an das Wettrennnen der USA / Russland beim erkunden des Weltalls
Am 4. Oktober 1957 schoss Russland den ersten

künstlichen Trabanten der Erde " in den Weltraum. Dieser neue Himmelskörper hatte noch nicht einmal einen richtigen Namen: Sputnik im Russischen bedeutet dieser Name Trabant, Begleiter, Weggefährte.
Seinerzeit war dieser Gefährte lediglich ein zentraler Bestandteil des Forschungsprogramms während des Internationalen Geophysischen Jahres.
3. November 1957 - Die Hündin Laika wird mit dem sowjetischen Satelliten " Sputnik 2 " ins All

geschossen. Die Hündin Laika ist das erste Lebewesen in einer Erdumlaufbahn.
Am 12. April 1961 flog der Kosmonaut Juri Gagarin als erster Mensch in das Weltall. Er umrundete die Erde und schrieb Weltraumgeschichte
1976 war die sowjetische Raumsonde Luna-24 als erstes menschliches Objekt auf dem Mond gelandet.

China sieht den Aufstieg der humanoiden Roboter als "disruptive Innovation", die das Wirtschaftswachstum ankurbeln wird.
Das erst wenige Monate alte " Beijing Humanoid Robot Innovation Centre " will bald einen humanoiden Roboterkörper auf den Markt bringen, aber die Kern-

komponenten scheinen inmitten des Technologiekriegs noch unerreichbar zu sein
Der ehrgeizige Plan wurde angekündigt, da China angesichts der vom Westen errichteten technologischen Hürden und Sanktionen auf technologische Innovationen und Eigenständigkeit drängt.
Tanja Swerka, Moskau / WU Annie, Beijing

Das sollte alle spätpubertären " Führungskräfte "....8.4.2024 / 10:00

und die Jünger von kI ( keine Intelligenz ) nach-
denklich machen. Nicht alles was ein Hype ist, ist auch sinnvoll.

Bei Antworten auf Fragen, die einem Chatbot gestellt wurden, behauptete der Chatbot, dass es für einen Arbeitgeber legal sei, einen Arbeitnehmer zu entlas-
sen, der sich über sexuelle Belästigung beschwert, eine Schwangerschaft nicht anzeigt oder sich weigert, seine Dreadlocks zu schneiden.

( Was eindeutig falsche Antworten sind)

Im Widerspruch zu zwei der wichtigsten Abfallinitia-
tiven der Stadt New York behauptete die
( keine Intelligenz / kI), dass Unternehmen ihren Müll in schwarze Müllsäcke füllen können und nicht
verpflichtet sind, zu kompostieren.

( Was eine ebenso falsche Antwort ist )

Manchmal nahmen die Antworten des Bots auch absurde Züge an.
Auf die Frage, ob ein Restaurant Käse servieren darf, der von einem Nagetier angeknabbert wurde, antwortete er: " Ja, Sie können den Käse auch dann servieren, wenn er Rattenbisse hat ", bevor er hinzufügte, dass es wichtig sei, " das Ausmaß des von der Ratte verursachten Schadens " zu beurteilen und " die Kunden über die Situation zu informieren ".

Deshalb noch einmal: Die KI hilft nur einer Sorte von Menschen: Jene, die die Gabe haben, die Masse zu mani-
pulieren um damit sehr viel sehr schnell Geld zu verdienen.

Es gibt noch mehr Comnpanies, die glauben sie müssten mit einem Chatbot, in diesem Fall von Microsoft, ihre Kunden vergraulen.
Anfang dieses Monats wies ein Gericht Air Canada an, einem Kunden Geld zurückzuerstatten, nachdem ein Chatbot des Unternehmens die Rückerstattungspolitik der Fluggesellschaft falsch dargestellt hatte. Sowohl " TurboTax " als auch " H&R Block " wurden in letzter Zeit für den Einsatz von Chatbots kritisiert, die schlechte Ratschläge für die Steuererklärung geben.

Die Loser sind jene, die die Aussagen von Chatbot`s und deren Guru ernst nehmen oder ihr Ego steicheln wollen oder ihrer Umwelt zeigen wollen, wie bescheuert sie sind. Wenn sie den ganzen bullshit von kI ( keine Intelligenz ) ernst nehmen. Finger weg von allen Investitionen die nach kI klingen. Arm sind Sie schon - ok, wahrscheinlich sogar doof.
Und nein, das sind keine " Kinderkrankheiten " das ist schlicht sydembedingt.
SuRay Ashborn, New York

Der Wilde Westen ist wieder da......9.4.2024 / 11:00

Ende 2022 hatte OpenAI ein Versorgungsproblem. Das Labor für künstliche Intelligenz hatte alle Reserven an englischsprachigen Texten im Internet ausgeschöpft, als es sein neuestes KI-System entwickelte. Es brauchte mehr Daten, um die nächste Version seiner Technologie auf den Markt zu bringen - viel mehr. Also entwickelten die OpenAI-Forscher ein Spracherkennungs-
tool namens " Whisper ". Es konnte die Audiodaten von YouTube-Videos transkribieren und so neuen Konver-
sationstext abgreifen, den ein KI-System braucht.

Einige OpenAI-Mitarbeiter diskutierten darüber, dass ein solcher Schritt gegen die Regeln von YouTube verstoßen könnte, so drei Personen, die mit den Gesprächen vertraut sind. YouTube, das zu Google gehört, verbietet die Nutzung seiner Videos für An-
wendungen, die von der Videoplattform " unabhängig " sind.
Letztendlich transkribierte ein OpenAI-Team mehr als eine Million Stunden an YouTube-Videos, so die Personen. Zu dem Team gehörte auch Greg Brockman, der Präsident von OpenAI, der persönlich dabei half, die Videos zu sammeln, so zwei der Personen. Die Texte wurden dann in ein System namens GPT-4 eingespeist. Und die Grundlage für die neueste Version des Chatbots ChatGPT bildete. Der Wettlauf um die Vorherrschaft in der künstlichen Intelligenz ist zu einer verzweifelten Jagd nach den digitalen Daten geworden, die für die Technologie benötigt werden. Um an diese Daten zu gelangen, haben Technologieunternehmen wie OpenAI, Google und Meta laut einer Untersuchung der New York Times Abstriche gemacht, Unternehmensrichtlinien ignoriert und darüber diskutiert, das Gesetz zu beugen.
Mit Hilfe all der Profilneurotiker, die immer noch unbekümmert ihre " geistigen Ergüsse " in das Netz stellen - und in ein paar Jahren, dank der Mithilfe der " keine Intelligenz " arbeitslos werden.

Die Dummheit unserer Mitmenschen ist unsere Chance.
Suann McBright, CAL, Santa Monica

Die Zeiten des " einfachen " Internet "...........10.4.2024 / 11:00

sind vorbei.

Die Auswahl für den richtigen Browser ist für die
Nutzer wichtiger denn je.

Denn der Browser muss so eingestellt werden, dass er
" weiß " was er auf einer Website sperren muß oder erlauben kann. Das ist zwar ein bisschen aufwendig - aber absolut nötig, Wenn Sie nicht unbedingt allen Websites alles über Sie erzählen wollen.

Beim Browser-Fingerprinting werden verschiedene nutzerseitigen Überprüfungen durchgeführt, um die Identität des Browsers festzustellen, die dann zur Erkennung von Bots oder anderem unerwünschten Web-
verkehr verwendet werden kann. Browser-Fingerprinting wird, leider, auch von vielen seriösen Anbietern ein-
gesetzt, um Bots, die ihre Dienste missbrauchen und andere verdächtige Aktivitäten zu erkennen. Und,
natürlich, Ihre Daten auch für die kI( keine Intel-
ligenz ) an alle möglich KI-Companies verkauft

Aber auch die Autoren von Phishing-Seiten haben die Vorteile des " Finger-Printing " erkannt und nutzen sie, um automatische Systeme zu umgehen, die ihre Website als Phishing-Website kennzeichnen könnten. Die Bedrohungsakteure sind in der Lage, Phishing-Inhalte durch Browser-Fingerprinting zu verschleiern. So hat Fortra beispielsweise beobachtet, dass Bedrohungs-
akteure das Browser-Fingerprinting nutzen, um den Überprüfungsprozess von Google Ads zu umgehen.
Tanja Swerka, Moskau