Positionspapier Digital Society Initiative (DSI)

Rechtsrahmen für Künstliche Intelligenz in der Schweiz

Rechtsrahmen für Künstliche Intelligenz in der Schweiz

Die Anwendungen von «Künstlicher Intelligenz» nehmen auch in der Schweiz immer mehr zu. Sie reichen vom Staubsaugerroboter über Newsfeed-Algorithmen bis zur biometrischen Massenüberwachung. Entsprechend unterschiedlich sind Chancen und Risiko für die betroffenen Menschen und die Gesellschaft insgesamt. Die nötige Diskussion für eine Regulierung stösst das kürzlich veröffentlichte Positionspapier der Digital Society Initiative (DSI) nun an.

Deep Technology Podcast

«Wenn wir weiterhin nur Trial und Error machen mit neuen Technologien, wird es viele blutige Nasen geben.»

«Wenn wir weiterhin nur Trial und Error machen mit neuen Technologien, wird es viele blutige Nasen geben.»

In der fünften Folge der aktuellen Staffel des Deep Technology Podcasts sind die Nationalrät:innen Min Li Marti (SP, ZH) und Jörg Mäder (GLP, ZH) zu Gast. Der Podcast wurde aufgenommen im Rahmen des Stammtisches der Digitalen Gesellschaft in der Bitwäscherei Zürich am 21. Oktober 2021. Manuel Stagars spricht mit den beiden Gästen darüber, wie Menschen in der Schweiz auf die Schweizer Politik Einfluss nehmen können, wo sie selbst im Umgang mit neuen Technologien vorsichtig sind und warum es mehr Visionen für die Zukunft braucht.

Mittwoch, 10. November 2021 – Universität Zürich

Rechtliche Rahmenbedingungen für Künstliche Intelligenz

Rechtliche  Rahmenbedingungen für  Künstliche Intelligenz

Das Center for Information Technology, Society, and Law (ITSL) der Universität Zürich plant am 10. November 2021 eine Veranstaltung zum Thema «Rechtliche Rahmenbedingungen für Künstliche Intelligenz in der Schweiz».

Entscheidende Gefahren nicht benannt

Machine-Learning-Leitlinien des Bundes

Machine-Learning-Leitlinien des Bundes

Der Bund will sich klare Leitplanken beim Einsatz künstlicher Intelligenz in der Verwaltung setzen. Dies ist erfreulich und könnte eine dringend notwendige Regulierung dieser Technologie befördern. Doch bei näherer Betrachtung wird deutlich, dass offenbar der Mut fehlt, entscheidende Zielkonflikte klar zu benennen. So werden die wesentlichen Gefahren, etwa des Einsatzes neuronaler Netze oder der Kompetenzauslagerung an private Dienstleister, nicht näher behandelt.