Antworten sind erst der Anfang
Antworten sind erst der Anfang
Erfahren Sie mehr darüber, was Sie mit der KI-gestützten Suche tun können.
Suche nach irgendetwas
Suche nach irgendetwas
Stellen Sie jede Frage – kurz oder lang, spezifisch oder vage. Dann Follow-up im Chat.
Schneller Antworten finden
Schneller Antworten finden
Holen Sie sich Zusammenfassungen. Vergleiche anstellen. Fordern Sie personalisierte Erklärungen an.
Bringen Sie Ihrer Kreativität freien Lauf
Bringen Sie Ihrer Kreativität freien Lauf
Schreiben Sie E-Mails, Gedichte, Essenspläne und mehr mit nur einer Aufforderung. Sie können sogar Bilder erstellen.
Steigern Sie Ihre Kreativität und Produktivität mit Microsoft Copilot Pro
Steigern Sie Ihre Kreativität und Produktivität mit Microsoft Copilot Pro
Microsoft Copilot Pro richtet sich an Power-User, Entwickler und alle, die ihre Copilot-Erfahrung auf die nächste Stufe heben möchten. Profitieren Sie von beschleunigter Leistung und schnellerer KI-Bilderstellung in Designer (ehemals Bing Image Creator) mit vorrangigem Zugriff auf GPT-4 und GPT-4 Turbo und entsperren Sie Copilot in ausgewählten Microsoft 365-Apps.Erfordert ein separates Microsoft 365 Personal- oder Familienabonnement.
Microsoft Edge ist der beste Browser für Copilot-Erfahrungen.
Microsoft Edge ist der beste Browser für Copilot-Erfahrungen.
Die Zukunft des Browsens und Suchens ist mit Microsoft Edge da, jetzt mit dem neuen integrierten Copilot. Stellen Sie komplexe Fragen, erhalten Sie umfassende Antworten, fassen Sie die Informationen auf einer Seite zusammen, tauchen Sie tiefer in Zitate ein und beginnen Sie mit dem Schreiben von Entwürfen – alles nebeneinander, während Sie surfen, ohne zwischen Tabs wechseln oder Ihren Browser verlassen zu müssen. Klicken Sie einfach auf das Copilot-Symbol in Ihrer Seitenleiste.
Nehmen Sie Ihren Copiloten mit auf Reisen.
Nehmen Sie Ihren Copiloten mit auf Reisen.
Mit der neuen Copilot-App können Sie Ihren Copilot jederzeit und überall suchen und darauf zugreifen. Stellen Sie Ihrem Copiloten alles, was Sie wollen, von Quizfragen bis hin zur Erstellung von Bildern. Wie ein Freund gibt Ihnen Copilot schnelle und hilfreiche Antworten sowie Vorschläge, was Sie als nächstes tun können. Sie können sogar per Sprachbefehl suchen oder chatten, und Ihr Verlauf und Ihre Einstellungen werden auf allen Ihren Geräten synchronisiert.
Copilot für Telegram
Lernen Sie Ihren neuen KI-Begleiter im Alltag kennen: Copilot, powered by GPT, jetzt auf Telegram. Beteiligen Sie sich an nahtlosen Gesprächen, greifen Sie auf Informationen zu und genießen Sie ein intelligenteres Chat-Erlebnis – alles innerhalb von Telegram.
Häufig gestellte Fragen
Copilot ist wie ein Forschungsassistent, persönlicher Planer und kreativer Partner an Ihrer Seite, wenn Sie im Internet suchen. Mit diesen KI-gestützten Funktionen können Sie:
- Stellen Sie Ihre eigentliche Frage. Wenn Sie komplexe Fragen stellen, erhalten Sie von Bing detaillierte Antworten.
- Holen Sie sich eine tatsächliche Antwort. Copilot schaut sich die Suchergebnisse im Internet an, um Ihnen eine zusammengefasste Antwort und Links zu den Quellen anzubieten.
- Seien Sie kreativ. Wenn Sie Inspiration brauchen, kann Copilot Ihnen helfen, Gedichte und Geschichten zu schreiben oder sogar ein brandneues Bild zu erstellen.
Mit der Copilot-Erfahrung können Sie auch Folgefragen stellen, wie z. B. "Können Sie mir das in einfacheren Worten erklären?" oder "Geben Sie mir mehr Optionen", um andere und noch detailliertere Antworten bei Ihrer Suche zu erhalten. In Copilot hat jede Konversation jedoch eine begrenzte Anzahl von Interaktionen, um die Interaktionen in der Suche zu verankern.
Copilot baut auf der vorhandenen Bing-Erfahrung auf, um Ihnen eine neue Art der Suche zu bieten.
- Copilot erstellt nicht nur eine Liste relevanter Links, sondern konsolidiert auch zuverlässige Quellen im Internet, um Ihnen eine einzige, zusammengefasste Antwort zu geben.
- Suchen Sie auf eine Art und Weise, die sich für Ihr Sprechen, Schreiben und Denken natürlich anfühlt. Copilot nimmt Ihre komplexen Suchanfragen entgegen und gibt Ihnen eine detaillierte Antwort zurück.
- In der Copilot-Erfahrung können Sie natürlich chatten und Folgefragen zu Ihrer ersten Suche stellen, um detaillierte Antworten zu erhalten .
- Wenn Sie das Copilot-Erlebnis in der Edge-Seitenleiste öffnen, können Sie auch in Bezug auf die angezeigte Webseite suchen und zusammenfassen, ohne die Registerkarten zu ändern.
- Copilot kann als kreatives Werkzeug verwendet werden. Es kann Ihnen helfen, Gedichte und Geschichten zu schreiben oder sogar Ideen für ein Projekt zu teilen.
- Stellen Sie Fragen, als ob Sie mit einer Person sprechen würden. Das bedeutet, dass Sie Details angeben, um Klärung oder weitere Informationen bitten und Copilot mitteilen, wie es für Sie hilfreicher sein kann. Hier ein Beispiel: "Ich plane eine Reise mit meinen Freunden im September. Welche Strände sind innerhalb von 3 Flugstunden von London Heathrow entfernt?" Dann folgen Sie mit etwas wie: "Was sollen wir tun, wenn wir dort ankommen?"
- Fragen Sie direkt nach Tipps, wie Sie mit Copilot interagieren können. Versuche es mit Dingen wie: "Was kannst du tun?" "Können Sie mir mit X helfen?" "Wo liegen deine Grenzen?" Copilot informiert Sie, wenn es etwas gibt, bei dem es nicht helfen kann.
- Copilot versucht, die Antworten unterhaltsam und sachlich zu halten, aber da es sich um eine frühe Vorschau handelt, kann es immer noch zu unerwarteten oder ungenauen Ergebnissen kommen, die auf den zusammengefassten Webinhalten basieren, also verwenden Sie bitte Ihr bestes Urteilsvermögen. Wir lernen ständig dazu und freuen uns über Feedback, um Copilot zu helfen, sich zu verbessern. Verwenden Sie die Feedback-Schaltfläche unten rechts auf jeder Copilot-Seite, um Ihre Gedanken mitzuteilen.
Wenn Sie sich in Copilot im Kreativmodus befinden, können Sie Copilot jetzt bitten, ein brandneues Bild für Sie zu erstellen, indem Sie nur Ihre Worte verwenden. Sagen Sie einfach "Erstellen Sie mir ein Bild von" oder "Zeichne mir ein Bild von" und schließen Sie mit genau dem ab, wonach Sie suchen. Image Creator funktioniert am besten, wenn Sie beschreibender sind, also werden Sie kreativ und fügen Sie Details wie Adjektive, Orte oder sogar künstlerische Stile wie "digitale Kunst" und "fotorealistisch" hinzu.
Hier ist ein Beispiel: Anstatt "Erstelle mir ein Bild einer Kreatur" einzugeben, versuche es mit "Erstelle mir ein Bild eines orangefarbenen Pandabären mit Sonnenbrille am Strand, digitale Kunst".
Copilot sucht im Internet nach relevanten Inhalten und fasst dann zusammen, was es findet, um eine hilfreiche Antwort zu generieren. Es zitiert auch seine Quellen, sodass Sie Links zu den Webinhalten sehen können, auf die es verweist.
Bei Microsoft nehmen wir unser Engagement für verantwortungsvolle KI ernst. Copilot wird in Übereinstimmung mit unseren KI-Prinzipien entwickelt. Wir arbeiten mit unserem Partner OpenAI zusammen, um ein Erlebnis zu bieten, das eine verantwortungsvolle Nutzung fördert. Zum Beispiel haben wir mit OpenAI bei der Arbeit an grundlegenden Modellen zusammengearbeitet und werden dies auch weiterhin tun, wir haben die Copilot-Benutzererfahrung so gestaltet, dass der Mensch im Mittelpunkt steht, und wir haben ein Sicherheitssystem entwickelt, das darauf ausgelegt ist, Ausfälle zu minimieren und Missbrauch mit Dingen wie Inhaltsfilterung, Betriebsüberwachung und Missbrauchserkennung sowie anderen Sicherheitsvorkehrungen zu vermeiden. Der Wartelistenprozess ist auch Teil unseres Ansatzes für verantwortungsvolle KI. Wir werden das Feedback der Nutzer mit frühzeitigem Zugang zu Copilot nutzen, um das Tool zu verbessern, bevor wir es allgemein verfügbar machen. Besuchen Sie den Bing-Blog, um die neuesten Erkenntnisse und Fortschritte zu erhalten.
Verantwortungsvolle KI ist eine Reise, und wir werden unsere Systeme auf dem Weg dorthin kontinuierlich verbessern. Wir sind bestrebt, unsere KI zuverlässiger und vertrauenswürdiger zu machen, und Ihr Feedback wird uns dabei helfen.
Weitere Informationen zur verantwortungsvollen Nutzung von Bing finden Sie in unseren Nutzungsbedingungen und unserem Verhaltenskodex.
Stellen Sie sich Copilot als intelligenten Begleiter mit einer Fülle von Wissen vor – fast wie einen Bibliothekar. Und genau wie ein Bibliothekar, der sicherstellt, dass die geteilten Informationen angemessen und hilfreich sind, hat die KI bestimmte Richtlinien, die sie befolgt. Diese stellen sicher, dass Copilot:
- Respektiert die Privatsphäre: Es taucht nicht in persönliche Daten oder sensible Themen ein, die die Privatsphäre einer Person gefährden könnten.
- Bleibt sicher: Es wird vermieden, Inhalte zu erstellen, die schädlich oder anstößig sein könnten.
- Hält es legal: Sie vermeidet Diskussionen, die zu illegalen Aktivitäten führen könnten.
- Schützt die Grenzen der Mensch-zu-KI-Konversation : Es konzentriert sich auf die Bereitstellung von Informationen, die nützlich sind, und vermeidet es, sich auf kontroverse Themen einzulassen, die darauf hindeuten könnten, dass es sich um etwas anderes als künstliche Intelligenz handelt.
Wenn Copilot also nicht auf ein bestimmtes Thema reagiert, liegt das wahrscheinlich daran, dass es verantwortungsvolle KI-Leitplanken befolgt, um ein positives und sicheres Erlebnis für alle zu gewährleisten.
Obwohl Copilot daran arbeitet, unerwartete anstößige Inhalte in den Suchergebnissen zu vermeiden, und Maßnahmen ergriffen hat, um zu verhindern, dass die Copilot-Funktionen mit potenziell schädlichen Themen interagieren, können Sie dennoch unerwartete Ergebnisse sehen. Wir arbeiten ständig daran, unsere Technologie zu verbessern, um schädliche Inhalte zu verhindern.
Wenn Sie auf schädliche oder unangemessene Inhalte im System stoßen, geben Sie bitte Feedback oder melden Sie ein Problem an Copilot, indem Sie das Menü in der oberen rechten Ecke einer Antwort öffnen und dann auf das Flaggensymbol klicken. Sie können auch die Feedback-Schaltfläche unten rechts auf jeder Copilot-Seite verwenden. Wir werden weiterhin mit dem Feedback der Benutzer arbeiten, um eine sichere Sucherfahrung für alle zu bieten.
Copilot ist bestrebt, alle seine Antworten auf zuverlässige Quellen zu stützen - aber KI kann Fehler machen, und Inhalte von Drittanbietern im Internet sind möglicherweise nicht immer genau oder zuverlässig. Copilot stellt die gefundenen Informationen manchmal falsch dar, und es kann sein, dass Sie Antworten erhalten, die überzeugend klingen, aber unvollständig, ungenau oder unangemessen sind. Nutzen Sie Ihr eigenes Urteilsvermögen und überprüfen Sie die Fakten, bevor Sie Entscheidungen treffen oder Maßnahmen ergreifen, die auf den Antworten von Copilot basieren.
Um Feedback zur Website zu geben oder ein Problem zu melden, öffnen Sie das Menü in der oberen rechten Ecke einer Antwort, und klicken Sie dann auf das Flaggensymbol. Sie können auch die Feedback-Schaltfläche unten rechts auf jeder Copilot-Seite verwenden.
Sie können auf Copilot im https://copilot.microsoft.com/ oder mit dem Microsoft Edge-Browser über die Edge-Seitenleiste zugreifen, indem Sie oben rechts auf das Copilot-Symbol klicken. Weitere Tipps zur Verwendung von Copilot in Edge und anderen KI-Funktionen im Browser finden Sie auf der Seite KI-Tipps.
Sie können jetzt mit Copilot auf Ihrem Telefon in der Microsoft Edge-App chatten, um Antworten aus dem Internet zu erhalten, schriftliche Inhalte zu erstellen, Ideen für die Reiseplanung zu sammeln und vieles mehr – alles von KI generiert. Bald können Sie auch auf Ihren Chatverlauf zugreifen, Chats teilen und exportieren und Fragen zu den angezeigten Inhalten stellen, z. B. eine Seite zusammenfassen oder nach Rezeptersatz fragen. Diese Funktionen werden in Kürze auf Edge Mobile ausgerollt. Jede Konversation hat eine begrenzte Anzahl von Interaktionen, um die Interaktionen auf der Suche zu halten.
Copilot in der Edge-App unterstützt auch Audiointeraktionen – tippen Sie einfach auf das Mikrofonsymbol und Sie können Copilot Ihre Frage stellen und eine Sprachantwort hören.
Um Feedback zu geben oder ein Anliegen in der Edge-App zu melden, tippen Sie auf die Antwort, halten Sie sie gedrückt und wählen Sie dann entweder die Option Daumen hoch oder unten für Feedback aus. Wir freuen uns über Ihre Bedenken und werden weiterhin mit dem Feedback der Benutzer zusammenarbeiten, um die Erfahrung der Copilot in Edge-App für alle Benutzer zu verbessern.
Sie können jetzt mit Copilot über Skype chatten, um Antworten aus dem Internet zu erhalten, schriftliche Inhalte zu erstellen, Ideen für die Urlaubsplanung zu sammeln und vieles mehr – alles generiert von KI. Sie können mit Copilot in Skype in einem Einzelgespräch chatten oder es zu einer Gruppe mit Ihren Freunden, Ihrer Familie oder Ihren Kollegen hinzufügen.
Wenn Copilot Teil einer Gruppe in Skype ist, kann er nur dann auf den Chat zugreifen, wenn er über @Copilot erwähnt wird. Copilot aktualisiert auch seinen Speicher und beginnt mit jeder neuen Erwähnung von vorne.
Es gibt jedoch ein paar wichtige Dinge, die Sie beachten sollten:
- Bei der Zusammenfassung eines Gesprächs kann es vorkommen, dass Copilot Ihre Pronomen falsch versteht. In diesem Fall können Sie Copilot anweisen, Ihre Pronomen mit @Copilot in der Nachricht zu korrigieren.
- Copilot unterstützt keine Audio- oder Videointeraktionen in Skype und greift nicht auf Audio- oder Videounterhaltungen zu oder nimmt daran teil.
- Copilot ist bestrebt, alle seine Antworten auf zuverlässige Quellen zu stützen, aber KI kann Fehler machen, und Inhalte von Drittanbietern im Internet sind möglicherweise nicht immer genau oder zuverlässig. Nutzen Sie Ihr eigenes Urteilsvermögen und überprüfen Sie die Fakten, bevor Sie Entscheidungen treffen oder Maßnahmen ergreifen, die auf den Antworten von Copilot in Skype basieren.
Dies ist eine Vorschauerfahrung, und wir arbeiten konsequent daran, allen Benutzern ein positives Copilot-in-Skype-Erlebnis zu bieten. Um Feedback zu geben oder ein Anliegen zu melden, klicken Sie mit der rechten Maustaste auf Ihre Antwort für den Desktop oder tippen und halten Sie Ihre Antwort für Mobilgeräte gedrückt und wählen Sie dann Anliegen melden aus.
Sie können jetzt mit Copilot auf GroupMe chatten, um Antworten und Inspirationen aus dem Internet zu erhalten, schriftliche Inhalte zu erstellen, neue Bilder zu entwerfen, nach Lerntipps zu fragen und vieles mehr – alles von KI generiert. Sie können einen Chat mit Copilot auf GroupMe auf zwei Arten starten: Sie können auf das Copilot-Symbol oben in der GroupMe-Chatliste tippen oder Sie können eine Aktion ausführen, um "Copilot zu fragen", indem Sie lange auf eine Chat-Nachricht drücken.
GroupMe-Benutzer können sich bei ihrem persönlichen Microsoft-Konto anmelden, um mit Copilot auf noch mehr Funktionen zuzugreifen. Wenn Sie sich mit Ihrem persönlichen Microsoft-Konto anmelden, erhalten Sie Zugriff auf den Copilot-Chatverlauf, die Möglichkeit, Bilder zu generieren, und ein erhöhtes tägliches Konversationslimit.
Um Feedback zu einer Copilot-Antwort zu geben, die Sie auf GroupMe finden, navigieren Sie zum Copilot-Chat, tippen Sie auf das Menü Mehr (...), und wählen Sie Feedback aus. Wir freuen uns über Bedenken und Feedback aus unserer Community, um die Erfahrung der Copilot in GroupMe-App für alle Benutzer zu verbessern.
Mit der visuellen Suche können Sie Bilder in Copilot eingeben und Fragen dazu stellen. Sie können z. B. Fragen zu Bildern stellen, die schwer zu beschreiben sind. Holen Sie sich ein Rezept für ein Gericht, dessen Namen Sie nicht kennen, identifizieren Sie eine Hunderasse, die Sie nicht kennen, und vieles mehr. Um die visuelle Suche zu verwenden, klicken Sie auf das Kamerasymbol in der Eingabeleiste in Copilot, laden Sie ein Bild von Ihrem Gerät hoch oder geben Sie einen Website-Link an und fragen Sie los!
Ja, die Unterhaltungen, die Sie mit Copilot führen, werden in der Seitenleiste von Copilot gespeichert. Wir nennen dies "Chat-Verlauf" und Sie können jede Konversation, die Sie zuvor mit Copilot geführt haben, anzeigen, darauf zugreifen und herunterladen. Wenn Sie Copilot beispielsweise nach Informationen über die erste Person fragen, die den Mond betreten hat, wird die Unterhaltung, die Sie führen, im Chatverlauf gespeichert, zu dem Sie jederzeit zurückkehren können.
Standardmäßig speichern wir Chatverlaufsdaten für 90 Tage ab der letzten Aktualisierung der Konversation.
In den Copilot-Einstellungen stehen zwei Einstellungen zur Verfügung, um Copilot-Daten zu steuern:
- Sie können den Chatverlauf deaktivieren. Beachten Sie, dass durch das Deaktivieren dieser Option auch die Personalisierung deaktiviert wird, wenn Sie sie aktiviert haben.
- Sie können die Personalisierung deaktivieren. Wenn Sie diese Einstellung verwenden, haben Sie weiterhin Zugriff auf den Chatverlauf und alle zukünftigen Chats werden gespeichert, aber Copilot-Antworten werden nicht personalisiert.
Wenn Sie Chat-Konversationen aus Ihrem Chat-Verlauf entfernen möchten, können Sie dies tun, indem Sie: (auf dem Desktop) auf das Papierkorbsymbol klicken, das angezeigt wird, wenn Sie mit der Maus über den Chat-Namen fahren; oder (auf dem Handy) Laden Sie einen Chat von der Chatverlaufsseite und tippen Sie dann auf "..." in der oberen rechten Ecke. Dadurch werden Ihre Unterhaltungen entfernt, die im Copilot-Verlauf gespeichert sind, und der Chat wird nicht mehr zur Personalisierung Ihres Erlebnisses verwendet. Sie können den Chatverlauf auch vollständig deaktivieren, um zu verhindern, dass Ihr Suchverlauf im Rahmen dieser produktinternen Steuerelemente gespeichert wird.
Wenn Sie Ihren Chatverlauf einschließlich der zugrunde liegenden Suchabfragen, die in Ihrem Suchverlauf gespeichert sind, vollständig löschen möchten, müssen Sie zusätzlich zu dem oben beschriebenen Schritt auch zum Microsoft-Datenschutzdashboard navigieren, auf Suchverlauf klicken und alle Instanzen löschen, die als "Copilot AI" angezeigt werden.
Ja, wir speichern einen Teil Ihres Chatverlaufs, einschließlich einiger Eingabeaufforderungen, um den Service bereitzustellen und zu verbessern. Ihre Eingabeaufforderungen werden in Übereinstimmung mit unserer Datenschutzerklärung gepflegt und verwendet, um die Leistung zu überwachen, Probleme zu beheben, Fehler zu diagnostizieren, Missbrauch zu verhindern und für andere Produktleistungsanalysen, die zur Bereitstellung und Verbesserung des Dienstes erforderlich sind. Zusätzlich zu den Steuerelementen, die bisher im Datenschutz-Dashboard verfügbar waren, bieten wir jetzt neue produktinterne Steuerelemente zum Anzeigen und Löschen von Chats, die für personalisierte Antworten verwendet werden. Nur die Daten, die im Chatverlauf des Produkts sichtbar sind, werden für personalisierte Antworten verwendet.
Wenn Sie die Personalisierung aktivieren, verwenden wir Ihre Chats im Chat-Verlauf, einschließlich der Rückschlüsse, die wir aus dem Kontext Ihrer früheren Chats ziehen können, um Ihre Erfahrung zu personalisieren. Copilot kann den Chatverlauf nicht über eine Chatanfrage löschen. Wenn Sie nicht möchten, dass wir eine bestimmte Konversation aus Ihrem Chatverlauf personalisieren, können Sie diese bestimmte Konversation auf dem Desktop entfernen, indem Sie den Mauszeiger über einen Konversationstitel bewegen und auf das Papierkorbsymbol klicken. Öffnen Sie auf dem Handy zuerst den jeweiligen Chat, indem Sie auf die Seite "Chatverlauf" gehen und dann auf "..." in der oberen rechten Ecke, um die Option Löschen zu sehen. Sie können die Personalisierung jederzeit deaktivieren, indem Sie die Seite Copilot-Einstellungen über die Einstellungen in der oberen rechten Ecke der Seite aufrufen.
Sie können steuern, welcher Chatverlauf verwendet wird, um Ihre Erfahrung zu personalisieren. Copilot kann den Chatverlauf nicht über eine Chatanfrage löschen. Wenn Sie nicht möchten, dass Copilot einen bestimmten Chat personalisiert, löschen Sie den Chat aus dem Chat-Verlauf. Nach dem Löschen wird der Chat nicht mehr zur Personalisierung der Antworten verwendet.
Das Zulassen der Personalisierung bedeutet, dass Sie Microsoft erlauben, Ihren Chatverlauf zu verwenden, um Copilot für Sie persönlicher zu gestalten. Copilot merkt sich Ihren Chatverlauf und kann aus diesem Chatverlauf Rückschlüsse auf Ihre Interessen, Hobbys usw. ziehen, um personalisierte Antworten zu geben.
Möglicherweise müssen Sie die Personalisierung aktivieren, um ein maßgeschneidertes Erlebnis mit personalisierten Empfehlungen von Copilot zu erhalten. Im Feld Copilot werden Sie über die Personalisierung informiert oder ausdrücklich aufgefordert, die Personalisierung zu aktivieren. Sie können Ihre Personalisierungseinstellungen über das Menü Einstellungen überprüfen. Sie können das Personalisierungssteuerelement jederzeit ein- oder ausschalten.
Wir befolgen unsere Praktiken für verantwortungsvolle KI und führen diese Funktion langsam ein, da sie möglicherweise noch nicht für bestimmte Zielgruppen oder Standorte verfügbar ist.
Sie können die Personalisierung über die Personalisierungseinstellung im Menü "Copilot-Einstellungen" deaktivieren. Wenn die Personalisierung aktiviert ist, können Sie auch steuern, welche Chats für die Personalisierung verwendet werden, indem Sie den Chatverlauf löschen, der nicht für die Personalisierung verwendet werden soll.
Ja, Sie können die Personalisierung von Copilot jederzeit in den Copilot-Einstellungen deaktivieren. Wenn Sie die Personalisierung deaktivieren, wird der Chatverlauf nicht deaktiviert. Sie können den Chatverlauf in den Copilot-Einstellungen deaktivieren. Sie können den Chatverlauf ohne Personalisierung verwenden, aber Sie können die Personalisierung nicht ohne den Chatverlauf verwenden, da kein Chatverlauf verfügbar ist, um Ihre Erfahrung zu personalisieren.
Wenn ein Benutzer die Personalisierungseinwilligung von "Ja" auf "Nein" ändert, löschen wir das Personalisierungsprofil des Benutzers. Wir behalten Ihren Chatverlauf weiterhin, es sei denn, Sie löschen den Chatverlauf, sodass Sie Ihre vergangenen Unterhaltungen einsehen können, aber Ihre zukünftigen Copilot-Antworten werden nicht mehr personalisiert.
Unabhängig von Ihren Benutzereinstellungen ist Copilot so konzipiert, dass Interaktionen nicht auf der Grundlage bestimmter Themen personalisiert werden, um Ihre Privatsphäre zu schützen und die Verwendung potenziell sensibler Informationen zu verhindern. Zum Beispiel ergreifen wir Maßnahmen, um Kontext aus Ihren früheren Unterhaltungen auszuschließen, der als sensibel angesehen werden kann, selbst wenn der Chatverlauf und die Personalisierung in Ihren Einstellungen auf "EIN" gesetzt sind. Benutzer sollten bei der Weitergabe von Informationen, die sie für sensibel halten, Vorsicht walten lassen.
Weitere Informationen zu den Datenschutzpraktiken von Microsoft finden Sie in den Microsoft-Datenschutzbestimmungen und in unserem Datenschutzcenter.
Generative KI bezieht sich auf eine Kategorie von KI-Modellen, die Daten analysieren, Muster finden und diese Muster verwenden, um eine neue Ausgabe zu generieren oder zu erstellen, z. B. Text, Foto, Video, Code, Daten und mehr. Ein KI-Modell zu "trainieren" bedeutet, ihm Daten zur Verfügung zu stellen, die ihm helfen, Vorhersagen oder Entscheidungen zu treffen.
Modelle sind fein abgestimmt, um allgemeine Beziehungen in der Sprache zu lernen, nicht um bestimmte Segmente von Trainingsdaten zu speichern. Sie speichern die ursprünglichen Trainingsdaten nicht und haben keinen Zugriff darauf. Wir ergreifen auch zusätzliche Schritte, um zu verhindern, dass diese Modelle ihre Trainingsdaten versehentlich reproduzieren, z. B. durch die Durchführung von Tests und die Erstellung von Filtern, die zuvor veröffentlichtes oder verwendetes Material aussortieren.
Microsoft verwendet öffentlich zugängliche Daten, die hauptsächlich aus branchenüblichen Machine Learning-Datasets und Webcrawls wie Suchmaschinen gesammelt werden. Wir schließen Quellen mit Paywalls, Inhalte, die gegen unsere Richtlinien verstoßen, oder Websites, die sich von Schulungen über von uns veröffentlichte Webkontrollen abgemeldet haben, aus. Darüber hinaus trainieren wir nicht mit Daten aus Bereichen, die in der Liste der berüchtigten Märkte für Fälschungen und Piraterie des Office of the United States Trade Representative (USTR) aufgeführt sind.
Wir trainieren nicht mit Daten unserer gewerblichen Kunden oder mit Daten von Benutzern, die bei einem organisatorischen M365- oder EntraID-Konto angemeldet sind. Wir trainieren auch nicht mit Daten aus persönlichen oder familiären M365-Abonnements oder mit Daten von Benutzern, die nicht bei ihrem Microsoft-Konto angemeldet sind.
Später in diesem Jahr wird Microsoft damit beginnen, Verbraucherdaten von Bing, MSN und Copilot zu verwenden, um die generativen KI-Modelle in Copilot zu trainieren. Dazu gehören anonymisierte Such- und Nachrichtendaten, Interaktionen mit Anzeigen in Microsoft-Eigenschaften sowie Sprach- und Textunterhaltungsdaten (einschließlich von Benutzern freigegebener Medien) mit Copilot, z. B. Eingabeaufforderungen, Abfragen, Chats und Antworten. Die Verbraucher werden im Voraus über diese Änderung informiert und erhalten klare Anweisungen, wie sie sich abmelden können, wenn sie dies wünschen.
Ja. Wenn Sie bei Ihrem Microsoft-Konto angemeldet sind, können Sie über ein Opt-out-Steuerelement steuern, ob Ihre Verbraucherdaten zum Trainieren der in Copilot verwendeten generativen KI-Modelle verwendet werden. Wenn Sie sich abmelden, werden Ihre vergangenen, gegenwärtigen und zukünftigen Verbraucherdaten von der Verwendung für das Training dieser KI-Modelle ausgeschlossen, es sei denn, Sie entscheiden sich dafür, sich wieder anzumelden. Diese Einstellung wird in den kommenden Monaten für die Web-, Desktop- und Mobilversionen aller in den Geltungsbereich fallenden Verbraucherprodukte verfügbar sein. Sie werden auch produktinterne Meldungen sehen, die Sie über diese neue Benutzersteuerung informieren, und wir beginnen erst 15 Tage nach der Benachrichtigung der Kunden in den Produkten mit der Schulung.
Wir werden dies dann schrittweise in verschiedenen Märkten einführen, um sicherzustellen, dass wir dies für die Verbraucher richtig machen und die lokalen Datenschutzgesetze auf der ganzen Welt einhalten.
Diese Opt-out-Einstellung schließt nicht aus, dass Ihre Daten für bestehende Verwendungen von Verbraucherdaten verwendet werden, einschließlich Personalisierung, digitaler Sicherheit und Compliance-Zwecken. Die Verbraucher behalten die bestehende Kontrolle über ihre Daten.
Ihre Daten werden nicht verwendet, um Sie zu identifizieren: Wir werden Informationen entfernen, die Sie identifizieren könnten, wie Namen, Telefonnummern, Geräte- oder Kontokennungen, sensible personenbezogene Daten, physische Adressen und E-Mail-Adressen, bevor wir diese KI-Modelle trainieren.
Wir werden Ihre Daten privat halten: Ihre Daten bleiben bei der Nutzung unserer Dienste privat und werden nicht ohne Ihre Zustimmung weitergegeben. Wir werden unsere Modelle kontinuierlich evaluieren und Maßnahmen ergreifen, um zu verhindern, dass Modelle Benutzerinformationen oder vergangene Konversationen reproduzieren. Wir schützen Ihre personenbezogenen Daten wie in den Microsoft-Datenschutzbestimmungen erläutert und in Übereinstimmung mit den Datenschutzgesetzen auf der ganzen Welt.
Daten von Minderjährigen werden nicht für das Training verwendet: Wir trainieren unsere generativen KI-Modelle nur mit Daten von Verbrauchern, die uns sagen, dass sie 18 Jahre oder älter sind.
Durch die Verwendung von Verbraucherdaten aus der realen Welt, um unsere zugrunde liegenden generativen KI-Modelle zu trainieren, können wir Copilot verbessern und ein personalisierteres und relevanteres Erlebnis in natürlicher Sprache bieten. Unsere KI-Modelle können diese Konversationen beispielsweise nutzen, um von menschlichen Kommunikationsmustern zu lernen, wie z. B. das Verstehen von umgangssprachlichen Phrasen oder lokalen Bezügen. Je vielfältiger die Konversationen sind, denen unsere KI-Modelle ausgesetzt sind, desto besser verstehen und bedienen sie wichtige regionale Sprachen, Regionen, kulturelle Bezüge und Trendthemen, die für die Nutzer von Interesse sind.
Verbrauchern, die 18 Jahre oder älter sind und bei ihren Microsoft-Konten (Verbraucherkonten) angemeldet sind, wird die Möglichkeit geboten, sich ab später in diesem Jahr von der KI-Schulung abzumelden. Diese Einstellung wird in den folgenden Märkten zunächst nicht verfügbar sein: Österreich, Belgien, Brasilien, Bulgarien, Kanada, China, Kroatien, Zypern, Tschechische Republik, Dänemark, Estland, Finnland, Frankreich, Französisch-Guayana, Deutschland, Griechenland, Ungarn, Island, Irland, Israel, Italien, Lettland, Liechtenstein, Litauen, Luxemburg, Malta, Niederlande, Norwegen, Nigeria, Polen, Portugal, Rumänien, Slowakei, Slowenien, Südkorea, Spanien, Schweden, Schweiz, Vereinigtes Königreich, und Vietnam. Dazu gehören die Regionen Guadeloupe, Französisch-Guayana, Martinique, Mayotte, La Réunion, Saint-Martin, Azoren, Madeira und die Kanarischen Inseln. Das bedeutet, dass KI-Angebote in diesen Märkten verfügbar sein werden, aber bis auf weiteres keine Benutzerdaten für das generative KI-Modelltraining an diesen Standorten verwendet werden.
Nein, nichts, was Sie Copilot sagen, wird jemals veröffentlicht. Copilot hat keinen direkten Zugriff auf Trainingsdaten, Ihren Chatverlauf oder persönliche Daten während Gesprächen mit anderen Benutzern und kann daher nicht auf diese Daten zugreifen oder diese ausgeben, wenn Sie mit anderen chatten.
Nein. Diese Änderung gilt nicht für Privatkunden, die Copilot in Word, Excel, PowerPoint oder Outlook verwenden. Ihre Unterhaltungen und Inhalte werden nicht für das Training der generativen KI-Modelle verwendet, die wir in Copilot anbieten.
Nein. Es gibt keine Änderungen an der Art und Weise, wie Microsoft Kundendaten für kommerzielle Kunden verwaltet. Weitere Informationen darüber, wie wir kommerzielle Kundendaten verwalten, finden Sie hier.
Ja, einige Copilot-Konversationen unterliegen sowohl einer automatisierten als auch einer manuellen (menschlichen) Überprüfung sowohl zur Produktverbesserung als auch zu Sicherheits-, Digitalsicherheits- und Compliance-Zwecken. Um beispielsweise unsere automatisierten Verarbeitungsmethoden zu erstellen, zu trainieren und die Genauigkeit zu verbessern, überprüfen wir manuell einen Teil der von den automatisierten Methoden erzeugten Ergebnisse anhand der zugrunde liegenden Daten. Wir beziehen menschliches Feedback von KI-Trainern, Red Teamern und Mitarbeitern in unseren Schulungsprozess ein. Zum Beispiel kann menschliches Feedback eine qualitativ hochwertige Ausgabe der Eingabeaufforderung eines Benutzers verstärken und so die Endbenutzererfahrung verbessern. Microsoft überprüft Ihre Sprachaufzeichnungen nicht ohne Erlaubnis von Menschen.
Wir können auch Unterhaltungen überprüfen, die als Verstoß gegen den Verhaltenskodex in den Nutzungsbedingungen für Copilot AI Experiences gekennzeichnet sind. Unser Verhaltenskodex verbietet die Nutzung des Copilot-Dienstes zur Erstellung oder Weitergabe unangemessener Inhalte oder Materialien. Einige Gespräche werden überprüft, wenn der Verdacht auf einen Verstoß gegen den Verhaltenskodex besteht.
Im Rahmen des Untersuchungsprozesses ist eine eingeschränkte menschliche Überprüfung erforderlich, wenn der Verdacht auf einen Verstoß gegen den Verhaltenskodex besteht. Um sicherzustellen, dass unsere Dienste für alle sicher und geschützt sind, ist ein vollständiges Opt-out der menschlichen Überprüfung nicht möglich.
Ja, Sie können sich von der KI-Schulung abmelden und haben trotzdem ein personalisiertes Copilot-Erlebnis. In diesem Fall merkt sich Copilot die letzten Unterhaltungen, um Ihnen eine persönlichere Antwort zu geben, aber Microsoft verwendet Ihre Unterhaltungen nicht für das Training generativer KI-Modelle. Copilot wird sich zum Beispiel daran erinnern, dass Sie Vegetarier sind, wenn es Rezepte für das Abendessen vorschlägt.
Wir werden Ihre Daten ohne Ihre Zustimmung nicht an Dritte oder Partner zu KI-Trainingszwecken weitergeben. Ihre Gespräche mit Copilot werden nicht an Dritte weitergegeben oder verkauft.
Microsoft gibt einige personenbezogene Daten in Übereinstimmung mit unseren Microsoft-Datenschutzbestimmungen an Dritte weiter. Beispielsweise können wir Ihre personenbezogenen Daten an von Microsoft kontrollierte verbundene Unternehmen und Tochtergesellschaften weitergeben, an Anbieter, die in unserem Auftrag arbeiten, und wenn dies gesetzlich vorgeschrieben ist oder um auf rechtliche Verfahren zu reagieren.
- * Die Verfügbarkeit und Funktionen von Features können je nach Gerätetyp, Markt und Browserversion variieren.
- * Die Inhalte auf dieser Seite wurden möglicherweise maschinell übersetzt.