Que quieres saber
- Microsoft lanzó recientemente Azure AI Content Safety para una amplia disponibilidad.
- Es una plataforma impulsada por IA diseñada para crear un entorno en línea más seguro para los usuarios.
- Azure AI Content Safety permite a las empresas establecer un mayor control al permitirles adaptar sus políticas, garantizando que el contenido que consumen sus clientes se alinee con sus valores fundamentales.
- La plataforma es ahora un sistema independiente, lo que significa que se puede utilizar en modelos de código abierto.
Microsoft acaba de hacer que Azure AI Content Safety esté disponible de forma generalizada. Es una plataforma impulsada por IA diseñada para "ayudar a las organizaciones a crear entornos en línea más seguros". La plataforma aprovecha modelos avanzados de lenguaje y visión para señalar contenido inapropiado como la violencia.
Muchas organizaciones se han subido al “carro de la IA” en los últimos meses para aprovechar las capacidades de la tecnología. Ciertamente, estas empresas han logrado avances significativos en sus respectivos campos. Sus beneficios van desde ayudar a los profesionales a desarrollar software en menos de 7 minutos hasta ayudar a los estudiantes a resolver problemas matemáticos complejos o incluso escribir poemas.
Pero lo que sigue siendo muy evidente es que los usuarios tienen reservas sobre la IA generativa. Varios usuarios comentaron que la precisión de la tecnología estaba disminuyendo, mientras que otros señalaron que se estaba volviendo más tonta. La tecnología también carece de medidas de seguridad que idealmente regularían el contenido que consumen los usuarios al interactuar con esta tecnología.
Afortunadamente, Azure AI Content Safety existe para ayudar a las organizaciones y empresas a controlar mejor el tipo de contenido al que pueden acceder los usuarios y, al mismo tiempo, garantizar que se alinee con sus valores y políticas fundamentales.
La plataforma debutó como parte del servicio Azure OpenAI, pero ahora es un sistema independiente. Microsoft explicó la plataforma en una publicación de blog:
"Esto significa que los clientes pueden usarlo para contenido generado por IA a partir de modelos de código abierto y modelos de otras compañías, así como contenido generado por el usuario como parte de sus sistemas de contenido, ampliando así su utilidad".
Esto confirma el objetivo de Microsoft de proporcionar a las empresas herramientas eficaces esenciales para implementar de forma segura la tecnología de IA.
Actualmente vivimos en un momento bastante increíble en el que las empresas se están dando cuenta del increíble poder de la IA generativa. El lanzamiento de Azure AI Content Safety como producto independiente significa que podemos atender a una gran cantidad de clientes con una gama mucho más amplia de necesidades comerciales.
Eric Boyd, plataforma Microsoft CVP-AI
Azure AI Content Safety se centra en la adaptabilidad
Microsoft ya aprovecha Azure AI Content Safety para colocar barreras de seguridad en sus propios productos basados en IA, como GitHub Copilot, Microsoft 365 Copilot y más. Y ahora las mismas funciones están disponibles para empresas y organizaciones. Esto les permitirá adaptar sus políticas para alinearlas mejor con las necesidades y deseos de los clientes.
Deja una respuesta