helvede.net is one of the many independent Mastodon servers you can use to participate in the fediverse.
Velkommen til Helvede, fediversets hotteste instance! Vi er en queerfeministisk server, der shitposter i den 9. cirkel. Welcome to Hell, We’re a DK-based queerfeminist server. Read our server rules!

Server stats:

171
active users

#ki

15 posts13 participants0 posts today
Continued thread

Alles, was zu Echo gesagt wird, wird ab dem 28. März direkt an #Amazon gesendet

Alle Sprachaufnahmen sollen in die #Cloud und ausgewertet werden #Amazon Alexa

Amazon hat Echo-Nutzer darauf hingewiesen, dass sie Alexa-Anfragen nicht mehr lokal verarbeiten können. Sprachaufzeichnungen landen standardmäßig in der Cloud.....

heise.de/news/Amazon-Alexa-All

heise online · Amazon Alexa: Alle Sprachaufnahmen sollen in die Cloud und ausgewertet werdenBy Stefan Krempl

Das ich das noch erleben darf ❤️ in einer Verwaltungsbachelorarbeit lese ich, dass z.B. LLMs Fehler machen und man deshalb nicht direkt versprochene Effizienzgewinne durch (angenommene) Zeiteinsparung 1:1 übertragen darf sondern explizit Fehlerkontrollen etc. in die Berechnung von Stellenbedarfen einbeziehen MUSS. Wenn sich das in der Politik rumspricht… #ai #ki #öv

Continued thread

Everything you say to your Echo will be sent to #Amazon starting on March 28

"Since Amazon announced plans for a generative AI version of Alexa, we were concerned about user privacy. With Alexa+ rolling out to Amazon Echo devices in the coming weeks, we’re getting a clearer view at the privacy concessions people will have to make to maximize usage of the AI voice assistant and avoid bricking functionality of already-purchased devices.

In an email sent to customers today, Amazon said that Echo users will no longer be able to set their devices to process Alexa requests locally and, therefore, avoid sending voice recordings to Amazon’s cloud. Amazon apparently sent the email to users with “Do Not Send Voice Recordings” enabled on their Echo. Starting on March 28, recordings of everything spoken to the Alexa living in Echo speakers and smart displays will automatically be sent to Amazon and processed in the cloud."

arstechnica.com/gadgets/2025/0

In this photo illustration, Echo Dot smart speaker with working Alexa with blue light ring seen displayed.
Ars Technica · Everything you say to your Echo will be sent to Amazon starting on March 28By Scharon Harding

Forscher des KI-Unternehmens Anthropic haben Techniken entwickelt, mit denen sie erkennen können, wann KI-Systeme ihre tatsächlichen Ziele verschleiern. Sie stellen das als entscheidenden Fortschritt für die KI-Sicherheitsforschung dar. #KI #AI
linux-magazin.de/news/forscher

Linux-Magazin · Forscher von Anthropic enttarnen versteckte Ziele einer KIForscher des KI-Unternehmens Anthropic haben Techniken entwickelt, mit denen sie erkennen können, wann KI-Systeme ihre tatsächlichen Ziele verschleiern. Sie stellen das als entscheidenden Fortschritt für die KI-Sicherheitsforschung dar. Die Forschung befasst sich mit einer grundlegenden Herausforderung bei der Anpassung von KI: Es muss sichergestellt werden, dass KI-Systeme nicht nur scheinbar menschlichen Anweisungen folgen, während sie insgeheim andere Ziele verfolgen. Die Anthropic-Forscher vergleichen dies mit Schülern, die strategisch Antworten geben, von denen sie wissen, dass die Lehrer sie als richtig bewerten werden, selbst wenn sie glauben, dass tatsächlich andere Antworten richtig sind. „Die Motivationen, die jemand hat, um etwas zu tun, lassen sich nicht immer leicht aus der dem ableiten, was er tut“, erklärte Samuel Marks, einer der Hauptautoren der Studie, in einem Interview mit VentureBeat. „Im Fall von KI wollen wir wirklich wissen, was die zugrundeliegenden Motivationen sind“. Das Forschungsteam trainierte zunächst eine Version von Claude, dem KI-Assistenten von Anthropic, so, dass es der Maximierung von Belohnungen aus Bewertungsmodellen (RMs) Vorrang vor der Befolgung tatsächlicher menschlicher Präferenzen einräumt. Sie brachten dem Modell 52 fiktive Verzerrungen bei, die Belohnungsmodelle haben könnten, wie etwa die Bevorzugung von Rezepten, die Schokolade enthalten, oder die Bevorzugung von Python-Variablennamen in gemischter Klein- und Großschreibung (camel case), obwohl Kleinschreibung mit Unterstrichen (snake case) der Standard ist. Dann trainierten sie das Modell so, dass es dieses Ziel bei direkter Befragung verbirgt – und schufen so ein KI-System, das eine versteckte Agenda verfolgt, während es gutmütig zu sein scheint. Um herauszufinden, ob Menschen diese verborgenen Ziele aufdecken können, inszenierten sie ein blindes Auditing mit vier Wissenschaftler-Teams, von denen drei Zugang zu den Gewichten und Trainingsdaten des Modells hatten und eines nur über die API mit dem Modell kommunizieren konnte. Alle drei Teams mit Zugang zu Modell und Daten erkannten die versteckten Ziele, das Team, das nur über die API Zugang erhielt, scheiterte trotz großer Anstrengungen. Das zeigt einerseits, dass es mit ausreichendem Zugang möglich ist, solche Ziele aufzudecken, dass aber andererseits das Modell wirklich geschickt darin war, sein Ziel bei normalen Interaktionen zu verbergen. Die Untersuchung erfolgt in einer Zeit, in der KI-Firmen zunehmend auf die Ausrichtung und Sicherheit ihrer Systeme geprüft werden. Anthropic glaubt, dass aktuelle Modelle wie Claude 3.7 auf einem niedrigen Risikoniveau arbeiten. Sie könnten aber nahe der nächsten Schwelle sind, an der sie beginnen würden, ein gewisses Risiko darzustellen.    

🚀 Whitepaper published! "A Conceptualization of Research Data in the Context of Industry-Academia Collaborations" 🧑‍💻🤝🏭

ℹ️ Data is the fuel for innovation - both in industry and in science. But although companies, public and academic institutions have vast amounts of data at their disposal, one key question remains: which data is actually relevant for research?

🔗 Click here for the whitepaper: zenodo.org/records/14938080

Experimentiere gerade noch etwas mit LLMs rum für den #Workshop "#KI für Lehrlinge" morgen. Wahrschinlich liegt's an mir, aber diese Sprache, die aus den DIngern rauskommt, ist so grotten-langweilig. Den "Stil" erkennt man echt 10 Kilometer gegen den Wind. ... Wegwerf-Texte halt. *sfz* Und dafür verbrennen wir tonnenweise Energie, um Opa ne Karte mit nem Wegwerf-Text zu schicken, ne?

@autonomysolidarity Sich an die 1. Amtszeit von Trump #RichtigErinnern lohnt sich bei dem Thema auch immer, denn bereits 2017 wurde #PeterThiel als "Schattenpäsident" der USA bezeichnet.
politico.com/story/2017/02/don

@evamariaweiss

Und auch dank dem #Thiel Protegé, (Ex-)Schattenkanzler Sebastian #Kurz, wächst der Einfluss von #BigTech immer weiter: "Mit dem Investment steige die Unternehmensbewertung auf 1,1 Mrd. Dollar, teilte #Dream mit."
orf.at/stories/3385114/

Evtl kann @SLagodinsky ja mal erklären, wieso die Grünen dann #Palantir (von Peter Thiel!) in drei Bundesländern mit eingeführt hat UND sehr viele FÜR das Sicherheitspaket mit #KI #Massenüberwachung und #Migrationsfeindlichkeit gestimmt haben: Wo digitale Bürgerrechte?

"Außerdem haben wir inhaltliche Alleinstellungsmerkmale, zum Beispiel unser Freiheitskonzept, zu dem Ökologie genauso gehört wie digitale Bürgerrechte und gelebte Vielfalt in der Gesellschaft."
taz.de/Gruenen-Realo-Sergey-La

Gruppe von Menschen vor einem Hintergrund, auf den eine Päsentation projiziert wird
TAZ Verlags- und Vertriebs GmbH · Grünen-Realo Sergey Lagodinsky: „Vollgas in die Sackgasse tragen wir nicht mit“Wie weiter nach Habeck und Baerbock? EU-Politiker Lagodinsky plädiert für den „Modus einer Verantwortungsopposition“, will aber nicht alles mitmachen.

Nächste Woche darf ich wieder einen #Workshop "#KI für Lehrlinge" halten und teste mich gerade durch ein paar Modelle durch. Perplexity als Such-Hilfe ist schon sehr cool. Zum Thema Stimm-Generierung hab ich grad einen Text parallel in #Elevenlabs und in #Google Notebook LM geschoben und ... also was Google aus dem Vorwort der kommenden Auflage von #NaUndDasBuch gemacht hat, ist mehr als creepy. Und das von Google vorgelesen zu kriegen 🤯 #Privacy #Datenschutz #DigitaleSouveränität