RPA y Big Data en el VLCTesting18

RPA y Big Data en el VLCTesting18

RPA y Big Data en el VLCTesting18

Autor: Gonzalo Estellés (Director de Arquitectura e Innovación en PFS Tech)

 

*Las opiniones vertidas lo son a título exclusivamente personal.

Durante los días 28 y 29 de noviembre tuvo lugar en la Universidad Politécnica de Valencia el #VLCTesting18, donde tuvimos la oportunidad de participar como patrocinadores Premium del evento. Un evento que reunió, durante dos jornadas, a grandes profesionales de diferentes sectores (proveedores y clientes) en el cual compartimos conocimiento sobre sobre actualidad, inquietudes, tendencias y aplicaciones de nuevas tecnologías a algo que nos ayuda a ser mejor profesionales: el testing automático de aplicaciones.

 

La calidad del software en muchos casos suele ser maltratada en los proyectos por diversos motivos. Seguramente alguna vez nos hemos formulado una pregunta como ¿cuántos coches se venderían si se tuvieran que revisar cada 2/3 semanas en un taller? ¿y si además de la incomodidad de llevarlo al taller con dicha frecuencia tuviéramos que pagar un canon mensual o anual de mantenimiento? Estamos todos de acuerdo que las ventas no serían como estamos diciendo.

Evento VLCTesting 2018

¿Qué pasa en el mundo del software?

 

En el mundo del software, un mundo que cambia y se mueve tan rápido, parece que sigue existiendo “una inercia” a esquivar esos controles de calidad en PRO de reducir tiempos ficticios de entrega que no dejan de ser una ilusión.

 

¿Para qué dedicar tiempo a probar cuando lo que importa es tenerlo en producción cuanto antes? O, por falta de presupuesto, ¿para qué pagar más tiempo si el producto lo probaremos directamente en producción? Y, a veces incluso, por falta de conocimiento especializado… ¿qué tengo que probar para garantizar el éxito de mi producto?

Es decir, cuando se adquiere software, se sacrifica esa calidad a pesar de saber que recibiremos “coches incompletos”, por ejemplo: sin volante o con cualquier artefacto redondo acoplado a la fuerza en el sitio del volante. Necesitamos tener la seguridad de que hemos comprado un buen producto porque a la larga esos defectos acaban saliendo a la luz. Por tanto, es una labor de todos concienciarnos para no dar cobijo a esas tres grandes amenazas que comprometen la calidad: usar tiempos límite, presupuesto cerrados y alcance de proyecto predefinido.

 

Tan importante es recibir un buen producto como asegurarnos de que el producto funcionará correctamente aportando valor cada día de su existencia. Que sobrevivirá al paso del tiempo y se adaptará a la evolución del contexto. Esto no se puede conseguir si no prestamos suficiente y rigurosa atención a la calidad de software.

 

VLCTesting nos ha mostrado cómo las tecnologías evolucionan y cada vez permiten controlar mejor la calidad de la entrega, cada vez se hacen más accesibles y más usables y, además, facilitan la incorporación a los ciclos de desarrollo permitiéndonos cada vez más la automatización de todo el proceso y asemejándolo cada vez más a los controles de calidad de entornos industrializados.

tech-software

PFS Tech en el VLCTesting18

 

Nuestra intervención durante el evento tuvo el punto fuerte en la presentación de una ponencia que se centraba en explicar nuestra propia experiencia al aplicar una tecnología emergente como RPA (Robotic Process Automation) al mundo de las pruebas funcionales o de regresión de aplicaciones monolíticas o zombies, aportando ventajas sobre los frameworks más tradicionales de testing. Entre las ventajas que pudimos ver, descubrimos y comentamos las siguientes:

 

  • Facilitan la documentación de los procesos críticos, en muchas ocasiones no se dispone de los procesos físicos documentados lo que dificulta la transmisión de conocimiento.
  • Integración con otras aplicaciones externas. Colaboración entre aplicaciones web y no web.
  • Orientado a perfiles menos técnicos, lo cual les dota capacidad de moldear  y adaptar sus propias pruebas desde un punto de vista más funcional, sin dependencias de otros equipos.

Este caso de uso, un poco atípico de esta tecnología, se adapta perfectamente a las funciones QA (Quality Assurance) que realizan diariamente, de forma manual en muchos casos, los equipos de desarrollo durante un sprint. Y además, permite avanzar hacia su automatización.

 

Otro de los temas que se trató durante la ponencia, consistía en aplicar herramientas Big Data con jMeter. Esta fusión de fuerzas nos ha ayudado a dar visibilidad al resto de la organización de las pruebas de stress y funcionales a lo largo de pipelines CI/DC. Además, nos permiten vigilar en tiempo real la ejecución de las pruebas, consultar su evolución en el tiempo, dar visibilidad a todos los actores del ciclo de desarrollo y por último generar alertas ante cualquier desviación en tiempo real.

 

Como conclusión: resultaron unas jornadas muy interesantes, donde se compartió mucho conocimiento y donde PFS Tech presentó sus credenciales con fuerza entre colegas, aportando estas dos soluciones innovadoras convertidas en un caso de éxito. Este evento, tras la expectación generada, nos anima a continuar por el mismo camino para preparar la siguiente sorpresa para el año que viene.

Regulación de la Protección de Datos

 

Veamos lo que ocurre en materia regulatoria en este punto, el Reglamento (UE) 2016/679, del Parlamento Europeo y del Consejo del 27 de abril relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos amplía (artículo 6.1) los supuestos de tratamiento de datos personales.

 

De una regulación nacional muy restrictiva del tratamiento (y la cesión, como forma de tratamiento) de datos personales, que requería de forma casi sistemática el consentimiento del titular del dato, se ha pasado a una clara ampliación de los supuestos de tratamiento.

 

Ahora es posible realizar el tratamiento lícito de datos cuando sea necesario para el cumplimiento de una obligación legal y cuando el objetivo sea satisfacer un interés público o incluso un interés legítimo perseguido por el responsable del tratamiento. Habrá que ir viendo cómo la Agencia Española de Protección de Datos y los órganos judiciales van configurando este derecho en los próximos años.

Proteccion-datos-personales

El contexto jurídico ha evolucionado, como se ve. Esta ampliación de los supuestos de tratamiento facilita la adopción de normas que permitan el desarrollo de modelos de negocio que vayan más allá de las bases de datos negativas, de los tradicionales registros de morosos, y se orienten al suministro de datos positivos de los potenciales clientes a los prestamistas.

 

El escenario regulatorio también ha cambiado en el ámbito de los pagos, con la transposición en Europa de la Directiva PSD2. Esta regulación abre los datos de los bancos, como proveedores de servicios de pago, a terceros e impulsa el denominado open banking, que permite la aparición de nuevas empresas prestadoras de servicios financieros entre el banco que da el soporte a la cuenta de pago y el cliente titular de esa cuenta.

 

La presencia de estas nuevas empresas (iniciadores de pago o agregadores de datos) es posible por la obligación del banco de darles acceso on-line a los datos de las cuentas de pago, siempre que el cliente se lo permita. El efecto indirecto de esta nueva regulación potenciará el flujo de datos positivos de clientes entre entidades reguladas, algo que empuja en el mismo sentido que las bases de datos de crédito positivas.

 

¿Qué puede aportar una regulación específica sobre bases de datos positivas de solvencia? El papel de la regulación es importante. En este punto, una norma específica aumentaría el grado de seguridad jurídica y -aunque no sea estrictamente necesario- reforzaría la presencia de un interés legítimo en el tratamiento de los datos para esta finalidad: evaluar debidamente la solvencia de una persona y ajustar mejor el precio del préstamo.

 

¿Qué ocurrirá previsiblemente en los próximos años?

 

No hay prácticamente ningún país de nuestro entorno en el que la regulación consagre un monopolio legal de base de datos positiva de solvencia. Por ello, no parece necesario establecer la obligación legal de aportar o compartir datos; basta con reconocer explícitamente el interés legítimo.

 

Esto llevará a que la regulación que pueda producirse en este ámbito parta de una situación de mercado, de competencia entre empresas privadas que elaboren y canalicen esta información positiva de pagos hacia los grandes actores tradicionales (los bancos) y, especialmente, hacia nuevos entrantes en el ecosistema de la concesión de préstamos.

 

Al tiempo, la necesidad de multiplicar el análisis de los datos del cliente constituye otro driver clave en la promoción de las bases de datos de crédito positivo. Las normas sectoriales reguladoras del crédito inmobiliario y del crédito al consumo aumentan la intensidad con la que los prestamistas deben contar con la mejor información posible para su análisis de solvencia, que deben realizar necesariamente.

 

Contar con un amplio historial y afinar la evaluación de solvencia del cliente viene ya impuesto en el crédito inmobiliario y del crédito al consumo, en el futuro próximo, cuando se revise la correspondiente Directiva a lo largo de 2020. Por ahí irá la cosa…

Gonzalo Estellés
Gonzalo Estellés
gonzalo-estelles@loquenosoncuentas.es