CSA IMAGES/MOD ART COLLECTION/GETTY IMAGES

El software no siempre termina siendo la panacea de la productividad que promete ser. Como sus víctimas saben muy bien, "la muerte por PowerPoint", el uso deficiente del software de presentación, absorbe la vida y la energía de demasiadas reuniones. La auditoría después de la auditoría empresarial revela hojas de cálculo con problemas y errores de cálculo macro. El correo electrónico y el chat facilitan una disfunción similar; la sobrecarga de la bandeja de entrada demuestra que perjudica el desempeño y la moral de los directivos. No es ninguna sorpresas aquí: es una realidad global con la que todos estamos familiarizados.

Entonces, ¿qué hace que los campeones de la inteligencia artificial (IA) y el aprendizaje automático confíen en que sus tecnologías serán inmunes a los resultados contraproducentes? No deberían estar tan seguros. El empoderamiento digital con demasiada frecuencia conduce a una mala gestión y abuso de la organización. El historial empresarial de las herramientas de productividad personal ofrece infinidad de letanías desafortunadas de consecuencias imprevistas. Para demasiados gerentes, los costos de la tecnología a menudo rivalizan con sus beneficios.

Precisamente porque se supone que las plataformas de aprendizaje automático y de inteligencia artificial son "inteligentes", plantean riesgos organizacionales desafiantes. Son más propensos a inspirar confianza falsa y errónea en sus hallazgos; amplificar o consolidar más los sesgos basados ​​en datos; y reforzar, e incluso exacerbar, los defectos humanos de las personas que los despliegan.

El problema no es que estas tecnologías innovadoras no funcionen; es que los usuarios tomarán decisiones inadvertidamente y se arriesgarán para debilitar a colegas y clientes. Un software aparentemente más inteligente podría convertir perversamente la "muerte por PowerPoint" de ayer en el "asesinato por aprendizaje automático" de mañana. Nadie quiere producir presentaciones aburridas que pierdan el tiempo de todos, pero lo hacen. Nadie quiere entrenar algoritmos de aprendizaje automático que produzcan predicciones engañosas, pero lo harán. Las redes inteligentes del infierno contra-productivo están conectadas con buenas intenciones.

Por ejemplo, como observaron astutamente Gideon Mann y Cathy O'Neil en su artículo de HBR Hiring Algorithms Are Not Neutral, "los algoritmos hechos por el hombre son falibles y pueden inadvertidamente reforzar la discriminación en las prácticas de contratación. Cualquier gerente de Recursos Humanos que use dicho sistema debe conocer sus limitaciones y tener un plan para manejarlas. Los algoritmos son, en parte, nuestras opiniones integradas en el código. Reflejan sesgos y prejuicios que conducen a errores de aprendizaje automático y malas interpretaciones".

Estos sesgos intrínsecos, tanto en los conjuntos de datos como en los algoritmos, se pueden encontrar siempre que sea necesario tomar decisiones importantes basadas en datos, como los esfuerzos de segmentación de clientes, los diseños de características del producto y las evaluaciones de riesgos del proyecto. Incluso puede haber sesgos en la detección de sesgos. En otras palabras, no se puede escapar a la realidad de que las fortalezas computacionales del aprendizaje automático coexisten intrínsecamente con las debilidades cognitivas de los seres humanos, y viceversa. Pero eso es más un desafío de liderazgo que un problema técnico. La pregunta más difícil es: ¿quién va a "poseer" esta coevolución digital del talento y la tecnología y dirigirla de manera sostenible hacia el éxito?

Para responder a esta pregunta, considere los dos modos de inteligencia artificial y aprendizaje automático que tienen más probabilidades de dominar las iniciativas empresariales.

  • El modo activo implica que las personas determinan directamente el rol de la inteligencia artificial o el aprendizaje automático para realizar el trabajo. Los humanos están a cargo; le dicen a las máquinas qué hacer. La gente gobierna.
  • El modo pasivo significa que los algoritmos determinan en gran medida los parámetros y procesos de las personas para realizar el trabajo. El software está a cargo; las máquinas le dicen a los humanos qué hacer. Las máquinas gobiernan.

En pocas palabras, mientras que el aprendizaje automático activo tiene máquinas de entrenamiento de personas, el aprendizaje automático pasivo tiene máquinas que entrenan a personas. Con el aumento de los grandes datos y la aparición de software más inteligente, esta dualidad se convertirá en una de las mayores oportunidades estratégicas y riesgos que enfrenta el liderazgo en todo el mundo.

Los sistemas de inteligencia artificial y aprendizaje automático activos tienen el potencial de reencarnar digitalmente y proliferar las patologías de productividad asociadas con la presentación existente, la hoja de cálculo y el software de comunicaciones. A las personas con capacitación y conocimiento de sus herramientas relativamente limitados se les dice que los utilicen para realizar su trabajo. Pero la mayoría de las empresas tienen muy pocos mecanismos de revisión confiables para asegurar o mejorar la calidad. Por lo tanto, a pesar de la tecnología avanzada, las presentaciones continúan perdiendo el tiempo, las conciliaciones de hojas de cálculo consumen los fines de semana y los ejecutivos se atrasan aún más en la respuesta a correos electrónicos y chats.

Del mismo modo que estas herramientas convirtieron a los trabajadores del conocimiento en presentadores aficionados y analistas financieros, la democratización continua del aprendizaje automático les invita a convertirse en científicos de datos aficionados. Pero ¿cómo de sostenible será el hecho de que los datos y los algoritmos más inteligentes proliferen en toda la empresa?

Sin duda, surgirán usuarios poderosos con talento, pero en general, las ineficiencias, las oportunidades perdidas y los errores que podrían resultar tienen el potencial de ser asombrosos para las organizaciones. Pensar que la mayoría de los administradores obtendrán un valor real de las plataformas de la inteligencia artificial y el aprendizaje automático con un entrenamiento mínimo es creer que la mayoría de los adultos podrían, en su tiempo libre, convertir con éxito a las camadas de cachorros en perros de exposición. Esto es ilusorio. Lo más probable es que las organizaciones obtengan software mal entrenado que exige cantidades desmesuradas de atención, deja un caos inesperado y ocasionalmente picaduras.

Por ejemplo, el sobreajuste es un error común de aprendizaje automático hecho incluso por científicos de datos experimentados. En el caso de sobreajuste, la IA es, literalmente, demasiado precisa para ser cierta; el modelo incorpora demasiado ruido, en lugar de centrarse en los datos esenciales. Encaja demasiado bien con los conjuntos de datos existentes y, a su vez, se vuelve extremadamente impreciso y poco fiable cuando se procesan datos nuevos. Para las empresas, los resultados previstos podrían ser totalmente absurdos, lo que generaría resultados negativos, como malas contrataciones, diseños deficientes o previsiones de ventas fallidas. El sobreajuste, al igual que los errores de la hoja de cálculo, puede ser capturado y corregido. Pero, ¿qué sucede cuando docenas de aficionados al aprendizaje automático están haciendo inversiones o proyecciones defectuosas basadas en lo que ellos pensaban que eran modelos precisos? Ese es un algoritmo para el desastre.

Cuantos más recursos de datos posean las organizaciones, más disciplinada será la supervisión que necesitará la inteligencia artificial y el aprendizaje automático activos. Los algoritmos más inteligentes requieren una gestión de riesgos más inteligente.

La inteligencia artificial y el aprendizaje automático pasivos, por otro lado, presentan una sensibilidad de diseño diferente y plantean diferentes riesgos. A todos los efectos, este software actúa como gerente y coach, estableciendo objetivos y directrices incluso cuando ofrece asesoramiento basado en datos para hacer el trabajo. La promesa de productividad personal es convincente: textos y correos electrónicos que escriben sus propias respuestas; horarios diarios que se vuelven a priorizar cuando llega tarde; análisis que destacan sus propios hallazgos más importantes; y presentaciones que se animan más. Los innovadores de software empresarial de Microsoft a Google, Salesforce y Slack buscan hacer más inteligente su software con algoritmos que aprendan de manera confiable de los usuarios. ¿Entonces, cuál es el problema?

El riesgo más obvio, por supuesto, es si el "software más inteligente" verdaderamente le da a su gente los comandos correctos. La alta dirección debería tener eso firmemente bajo revisión. El riesgo más sutil y subversivo es que la inteligencia artificial pasiva está demasiado arraigada en el desempeño humano, la adherencia y la obediencia. Es decir, se requiere que los trabajadores estén subordinados a la IA para que tenga éxito. Este tipo de desempoderamiento por diseño puede invitar a la resistencia de los empleados, el cumplimiento superficial y el sabotaje sutil. Por ejemplo, un representante de servicio al cliente podría decirle a un cliente descontento: "Me encantaría ayudarte, pero el software me prohíbe darte ningún tipo de reembolso".

En otras palabras, el valor del toque humano es deliberadamente desechado por decisiones basadas en datos. Se espera que los trabajadores subordinen su juicio a sus jefes algorítmicos y el sistema los disciplinará si se salen de la línea.

Si bien no hay una solución para los desafíos enumerados, existen enfoques que logran un equilibrio saludable entre los riesgos y las oportunidades. Sin duda, las organizaciones más exitosas adoptarán la "gobernanza de datos" y contratarán a los mejores científicos de datos que puedan. Pero cultural y operacionalmente, deberán promulgar públicamente tres iniciativas interrelacionadas para mitigar los riesgos:

1. Escribe una declaración de inteligencia (máquina). Al igual que El sentido común de Thomas Paine o la Declaración de Independencia, una Declaración de Inteligencia (Máquina) definiría y articularía los principios relacionados con la forma en que la organización espera usar algoritmos inteligentes para impulsar el rendimiento y la productividad. El documento generalmente describe casos de uso y escenarios para ilustrar sus puntos. Su objetivo sería brindar a los gerentes y trabajadores una idea más clara de dónde la inteligencia artificial y el aprendizaje automático aumentará sus tareas y dónde puede reemplazarlos o automatizarlos. La declaración abordaría la gestión de las expectativas y debería ser una lectura obligatoria para cualquier persona de la empresa.

2. Emplea transparencia de repositorio radical. La revisión, verificación y validación son principios esenciales en entornos empresariales de IA ricos en datos. Compartir ideas, datos y modelos entre comunidades debería ser una mejor práctica. Las grandes corporaciones usan cada vez más repositorios que alientan a personas y equipos a publicar sus conjuntos de datos y modelos para su revisión. En ocasiones, estos repositorios surgen de las iniciativas de gobierno de datos. En otros, son subproductos de los equipos de ciencia de datos que tratan de obtener una mayor visibilidad de lo que los diversos grupos están haciendo digitalmente. La clara aspiración es expandir la conciencia de toda la empresa sin restringir la iniciativa ascendente.

3. Crea una hoja de ruta de compensación. La ciencia de datos, la inteligencia artificial y el aprendizaje automático son campos dinámicamente innovadores que evolucionan de forma rápida y oportunista. La implementación activa de aprendizaje automático de ayer puede convertirse en el proceso de negocio de la inteligencia artificial pasiva de mañana. A medida que las organizaciones heredadas recurren a los datos, el aprendizaje automático y las plataformas digitales para transformarse, sus mapas de ruta sugerirán dónde la administración considera que las inversiones en IA activa serán más valiosas que en lo pasivo. Por ejemplo, los sistemas de orientados al cliente pueden merecer diferentes talentos y compensaciones que se centren en la eficiencia del proceso interno.

La gestión de abandono es un excelente caso de estudio: en un gigante de las telecomunicaciones, un equipo de análisis exploró el uso de técnicas de aprendizaje automático para identificar a los clientes que probablemente se irían y se cambiarían a otro proveedor de servicios. Probar con éxito las ofertas de retención sería una gran ganancia para la empresa y, si el aprendizaje automático redujera la pérdida de clientes mejoraría drásticamente la eficiencia interna del proceso. Varios de los analistas más centrados en el cliente creían que simplemente mantener un cliente no era suficiente; pensaban que una parte de los posibles abandonos podría ser transferida a servicios nuevos y adicionales si las ofertas se enmarcaban correctamente. Querían que los algoritmos de aprendizaje automático y de datos se entrenaran para identificar a los clientes que podían ser reubicados, no solo salvados. Resultó que esta era una muy buena idea basada en los datos y centrada en el cliente.

Al igual que la Declaración de Inteligencia (Máquina), la hoja de ruta de las compensaciones está destinada a gestionar las expectativas. Pero busca y recurre a la transparencia radical del repositorio para ver qué capacidades internas de inteligencia artificial y aprendizaje automático existen y cuáles son las nuevas que se deben cultivar o adquirir.

En pocas palabras, los líderes que toman en serio las principales transformaciones de inteligencia artificial están invirtiendo no solo en conocimientos técnicos innovadores sino también en nuevas capacidades organizativas. Mientras lo hacen, deberán tener mucho cuidado de no recrear los errores de productividad del pasado.