Este texto analiza el discurso sobre sistemas algorítmicos de aprendizaje automático y aprendizaje profundo, especialmente en redes neuronales artificiales, presentadas como inescrutables, insondables e incomprensibles. Expone las críticas y la posible ineficacia de la transparencia para respaldar la explicabilidad de las soluciones de Inteligencia Artificial. Exhibe la incompatibilidad de la opacidad algorítmica con su uso democrático en aplicaciones socialmente importantes. Explica que el reclamo de inescrutabilidad y la imposibilidad de interpretar las operaciones realizadas por los algoritmos de aprendizaje profundo abren espacio para la construcción de una nueva figura jurídica, la persona electrónica, como ocurrió con las Recomendaciones a la Comisión de Disposiciones de Derecho Civil sobre Robótica del Parlamento Europeo. Sin la posibilidad de medir las consecuencias en el caso de la adopción de dicha propuesta, el texto establece el principio de precaución como base para la conveniencia y la necesidad de regulaciones y restricciones de riesgo de una tecnología que extiende el poder de las plataformas y de las grandes corporaciones.
Palabras-clave: Inescrutabilidad. Persona electrónica. Principio de
This text analyzes the argument about algorithmic systems of machine learning and deep learning, especially about artificial neural networks, presented as inscrutable, unfathomable and incomprehensible. It exposes the criticism and the possible ineffectiveness of transparency to support the explainability of Artificial Intelligence solutions. It exhibits the incompatibility of algorithmic opacity with its democratic use in socially important applications. Explains the claim of inscrutability and the impossibility of interpretation the operations performed by the deep learning algorithms allows the construction of a new legal figure, the electronic person, as occurred with the Recommendations to the Commission on Civil Law Rules on Robotics of European Parliament, in 2017. Unable to measure the consequences in the case the proposition be adopted, the text presents the precautionary principle to support the convenience and necessity of regulations and risk restrictions of a technology that extends the power of platforms and large corporations
Este texto analisa o discurso sobre os sistemas algorítmicos de machine learning e deep learning, em especial sobre as redes neurais artificiais, apresentadas como inescrutáveis, insondáveis e incompreensíveis. Expõe a crítica e a possível ineficácia da transparência para fundamentar a explicabilidade das soluções de inteligência artificial. Exibe a incompatibilidade da opacidade algorítmica com a sua utilização democrática em aplicações de importância social. Explicita que a reivindicação da inescrutabilidade e da impossibilidade de interpretar as operações realizadas pelos algoritmos de aprendizado profundo abre espaço para a construção de uma nova figura jurídica, a pessoa eletrônica, como ocorreu com as Recomendações à Comissão sobre Disposições de Direito Civil sobre Robótica do Parlamento Europeu, em 2017. Sem a possibilidade de medir as consequências caso tal proposição venha a ser adotada, o texto apresenta o princípio da precaução para fundamentar a conveniência e a necessidade de regulamentos e restrições aos riscos de uma tecnologia que amplia o poder das plataformas e das grandes corporações.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados