Eleven v3 अल्फा का परिचय

v3 आजमाएं

हम अपनी प्रमुख ऑडियो AI टेक्नोलॉजी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं।

AI ऑडियो भाषा और कम्युनिकेशन की बाधाओं को पार करने में मदद करता है, जिससे एक ज्यादा जुड़ी हुई, क्रिएटिव और प्रोडक्टिव दुनिया बनती है। यह गलत इरादों वाले लोगों को भी आकर्षित कर सकता है। हमारा मिशन बेहतरीन ऑडियो AI प्रोडक्ट बनाना और तैनात करते हुए सुरक्षा में लगातार सुधार करना है ताकि इनके दुरुपयोग को रोका जा सके।

ElevenLabs में AI सुरक्षा नवाचार से अलग नहीं है। यह सुनिश्चित करना कि हमारे सिस्टम सुरक्षित रूप से विकसित, तैनात और उपयोग किए गए हैं, ये हमारी रणनीति का अहम हिस्सा है।
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Co-founder at ElevenLabs

हमारा मिशन किसी भी भाषा और किसी भी आवाज़ में कॉन्टेंट को सुलभ बनाना है।

हम दुनिया भर में लाखों यूज़र्स के साथ-साथ प्रमुख प्रकाशन और मीडिया कंपनियों के लिए एक भरोसेमंद AI ऑडियो प्रदाता हैं, जिनमें शामिल हैं:

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

ElevenLabs की सुरक्षा असल में

हम तीन सिद्धांतों पर चलते हैं ताकि जोखिम को नियंत्रण करते हुए AI ऑडियो दुनियाभर के लोगों के लिए फायदेमंद रहे: मॉडरेशन, जवाबदेही और उत्पति

मॉडरेशन

हम अपनी टेक्नोलॉजी से तैयार किए गए कॉन्टेंट की सक्रिय रूप से निगरानी करते हैं।

Blurred yellow text box with a warning icon at the bottom left corner.

ऑटोमैटिक मॉडरेशन। हमारे ऑटोमैटिक सिस्टम हमारी पॉलिसी का उल्लंघन करने वाले कॉन्टेंट को स्कैन करते हैं, इन्हें तुरंत ब्लॉक करते हैं या रिव्यू के लिए फ़्लैग करते हैं।

मानव मॉडरेशन। एक बढ़ती हुई मॉडरेटर टीम फ़्लैग किए गए कॉन्टेंट को रिव्यू करते है और यह सुनिश्चित करने में हमारी मदद करती है कि हमारी पॉलिसी का लगातार पालन हो।

अवांछित आवाज़ें (नो-गो वॉइस)। जबकि हमारी पॉलिसी नक़ल करने पर रोक लगाती हैं, हम एक अतिरिक्त सुरक्षा टूल का उपयोग करते हैं जिससे विशेष रूप से उच्च-जोखिम वाली आवाज़ों के साथ कॉन्टेंट बनाने को रोका जा सके।

वॉइसकैप्चा (voiceCAPTCHA)। हमने एक प्रोपराइटरी वॉइस वेरिफिकेशन तकनीक विकसित की है जो अवैध रूप से वॉइस क्लोनिंग टूल्स के उपयोग को कम करने के लिए बनाई गई है, जिससे यह सुनिश्चित हो सके कि हमारे हाई क्वालिटी वाले वॉइस क्लोनिंग टूल का यूज़र केवल अपनी आवाज़ को ही क्लोन कर सकते हैं।

जवाबदेही

हम मानते हैं कि दुरुपयोग करने वालों को सबक सिखाया जाना चाहिए।

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

ट्रेस करने की क्षमता। जब कोई गलत इरादे वाला हमारे टूल का दुरुपयोग करता है, तो हम जानना चाहते हैं कि वह कौन है। हमारे सिस्टम हमें जनरेट किए गए कॉन्टेंट को असली अकाउंट्स तक ट्रेस करने की अनुमति देते हैं और हमारे वॉइस क्लोनिंग टूल केवल उन यूज़र्स के लिए उपलब्ध हैं जिन्होंने बिलिंग विवरण के साथ अपने अकाउंट्स को वेरिफाई किया है।

प्रतिबंध। हम गलत इरादे वालों को बताना चाहते हैं कि उनके लिए हमारे प्लेटफ़ॉर्म पर कोई जगह नहीं है। हम उन यूज़र्स को स्थायी रूप से प्रतिबंधित करते हैं जो हमारी पॉलिसी का उल्लंघन करते हैं

कानून प्रवर्तन के साथ पार्टनरशिप। हम अथॉरिटीज़ के साथ पूरा सहयोग करेंगे और ज़रूरत पड़ने पर गैरकानूनी कंटेंट या गतिविधियों से जुड़ी जानकारी रिपोर्ट या साझा करेंगे।

उत्पति

हम मानते हैं कि आपको यह पता होना चाहिए कि कोई ऑडियो AI से जनरेट किया गया है या नहीं।

Abstract black and white wavy lines on a light background.

AI स्पीच क्लासिफायर। हमने एक बहुत अधिक सटीक डिटेक्शन टूल विकसित किया है जिसमें 99% सटीकता और 80% रिकॉल बनाए रखता है, यदि नमूने में कोई बदलाव नहीं किया गया है, और इससे कोई भी यह देख सकता है कि किसी ऑडियो फ़ाइल को हमारी टेक्नोलॉजी से जनरेट किया गया है या नहीं।

AI डिटेक्शन स्टैंडर्ड्स। हम मानते हैं कि मेटाडेटा, वॉटरमार्किंग और फिंगरप्रिंटिंग समाधान जैसे डाउनस्ट्रीम AI पहचान टूल महत्वपूर्ण हैं। हम C2PA के माध्यम से उत्पति के लिए इंडस्ट्री स्टैंडर्ड्स को अपनाने का समर्थन करते हैं।

सहयोग। हम AI कंपनियों, शैक्षणिक संस्थानों और पॉलिसी निर्माताओं को AI कॉन्टेंट डिटेक्शन के लिए इंडस्ट्री-वाइड तरीकों को विकसित करने में सहयोग के लिए आमंत्रित करते हैं। हम कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव का हिस्सा हैं, और कॉन्टेंट डिस्ट्रीब्यूटर और सिविल सोसायटी के साथ मिलकर AI कॉन्टेंट पारदर्शिता स्थापित करने के लिए काम करते हैं। हम सरकारी AI सुरक्षा प्रयासों का भी समर्थन करते हैं और हम U.S. नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (NIST) के AI सेफ्टी इंस्टीट्यूट कंसोर्टियम के सदस्य हैं।

AI-जनरेटेड कॉन्टेंट की मात्रा बढ़ती रहेगी। हम ज़रूरी पारदर्शिता प्रदान करना चाहते हैं, जिससे डिजिटल कॉन्टेंट की उत्पत्ति का पता लगाने में मदद मिले।
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Co-founder at ElevenLabs

विशेष ध्यान: 2024 के चुनाव

दुनिया का आधा हिस्सा 2024 में वोट देगा। इस साल के चुनावों की तैयारी के लिए, हम AI आवाजों के सुरक्षित और निष्पक्ष उपयोग को बढ़ाने पर खास ध्यान दे रहे हैं।

इन प्रयासों को सुविधाजनक बनाने के लिए, हम चुनाव सुरक्षा पर टेक अकॉर्ड के प्रारंभिक हस्ताक्षरकर्ता हैं, जो Amazon, Google, Meta, Microsoft, OpenAI, और ElevenLabs जैसे कई इंडस्ट्री लीडर्स को वैश्विक चुनावों को AI के दुरुपयोग से सुरक्षित रखने के लिए एक संयुक्त प्रयास के रूप में एक साथ लाता है।

जैसे-जैसे AI हमारे दैनिक जीवन का हिस्सा बन रहा है, हम भरोसेमंद प्रोडक्ट बनाने और उनके दुरुपयोग से बचाव के लिए पार्टनर्स के साथ सहयोग करने के लिए प्रतिबद्ध हैं।
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

हमारे सुरक्षा प्रयासों के बारे में अधिक पढ़ें

अनुपालन

यदि आप ऐसे कॉन्टेंट देखते हैं जो हमारी प्रतिबंधित कॉन्टेंट और उपयोग पॉलिसी का उल्लंघन करता है, और आपको लगता है कि इसे हमारे प्लेटफ़ॉर्म पर बनाया गया है, तो कृपया इसे यहां रिपोर्ट करें। यूरोपीय संघ के यूज़र यहां जाकर हमें ऐसे कॉन्टेंट की सूचना दे सकते हैं जिसे वे अवैध कॉन्टेंट मानते हैं (यूरोपीय संघ डिजिटल सर्विसेज़ एक्ट के DSA अनुच्छेद 16 के अनुसार) । हमने EU यूज़र्स के लिए एकल संपर्क बिंदु नामित किया है (DSA अनुच्छेद 12 के अनुसार), जहां वे अन्य चिंताओं के बारे में हमसे संपर्क कर सकते हैं, जो यहां उपलब्ध है।

जिम्मेदार AI के प्रति हमारी प्रतिबद्धता के हिस्से के रूप में, ElevenLabs ने सरकारी अधिकारियों के साथ सहयोग करने की पॉलिसी स्थापित की हैं, जिनमें कानून प्रवर्तन एजेंसियां भी शामिल हैं। उचित मामलों में, इसमें प्रतिबंधित कॉन्टेंट के बारे में रिपोर्ट करना या जानकारी का खुलासा करना शामिल हो सकता है, साथ ही कानून प्रवर्तन और अन्य सरकारी संस्थाओं से वैध पूछताछ का जवाब देना भी शामिल हो सकता है। कानून प्रवर्तन अधिकारी हमारे लीगल टीम से यहां से संपर्क करके कानूनी पूछताछ सबमिट कर सकते हैं। DSA अनुच्छेद 11 के अनुसार, EU में कानून प्रवर्तन अधिकारी गैर-आपातकालीन कानूनी प्रक्रिया अनुरोध ElevenLabs Sp. z o.o. को एक फॉर्म के माध्यम से भेज सकते हैं जो यहां उपलब्ध है, जिसे यूरोपीय आयोग, सदस्य राज्यों के अधिकारियों और यूरोपीय डिजिटल सेवा बोर्ड के साथ सीधे संवाद के लिए एकल संपर्क बिंदु के रूप में नामित किया गया है। अधिकारियों को Eleven Labs से अंग्रेजी और पोलिश में बातचित करने की अनुमति है। ज़रूरी कानून के तहत, अंतरराष्ट्रीय कानूनी प्रक्रियाओं को म्युचुअल लीगल असिस्टेंस ट्रीटी के माध्यम से जमा करने की ज़रूरत हो सकती है।

यदि आप एक यूरोपीय संघ के यूज़र हैं, तो आपके पास अपने कॉन्टेंट या अकाउंट के खिलाफ ElevenLabs द्वारा की गई कार्रवाई के खिलाफ छह महीने का अपील करने का समय है। यदि आपके अकाउंट या कॉन्टेंट को प्रतिबंधित कर दिया गया है, तो आप प्राप्त सूचना का जवाब देकर अपनी अपील सबमिट कर सकते हैं। यदि आप अपने DSA अवैध कॉन्टेंट रिपोर्ट के परिणाम की अपील करना चाहते हैं, तो कृपया फॉर्म का उपयोग करें, जो यहां उपलब्ध है।

यूरोपीय संघ के यूज़र अपने विवादों को कॉन्टेंट या अकाउंट प्रतिबंध से संबंधित, और संबंधित अपीलों के लिए प्रमाणित आउट-ऑफ-कोर्ट सेटलमेंट बॉडी से संपर्क कर सकते हैं। आउट-ऑफ-कोर्ट विवाद सेटलमेंट बॉडी द्वारा किए गए निर्णय बाध्यकारी नहीं हैं।
ElevenLabs

उच्चतम गुणवत्ता वाले AI ऑडियो के साथ बनाएं

मुफ़्त में आज़माएं

क्या आपके पास पहले से अकाउंट है? लॉग इन करें

ElevenLabs — सुरक्षा | ElevenLabs