Como remover mofo de máquinas de lavar: 10
May 26, 2023Esta é a temperatura em que sua geladeira deve ser ajustada
May 27, 2023Auto
May 28, 2023Como limpar máquina de lavar com vinagre e bicarbonato de sódio
May 29, 2023Erros na máquina de lavar a evitar que são ‘prejudiciais’ e causam ‘cheiros’
May 30, 2023Expoente máximo de Lyapunov
Scientific Reports volume 13, Artigo número: 12744 (2023) Citar este artigo
285 acessos
Detalhes das métricas
O algoritmo de molde viscoso (SMA) é um algoritmo inspirado na natureza que simula os mecanismos de otimização biológica e alcançou ótimos resultados em vários problemas complexos de otimização estocástica. Devido ao princípio de busca biológica simulada do bolor limoso, o SMA tem uma vantagem única no problema de otimização global. No entanto, ainda sofre com problemas de perda da solução ótima ou de colapso para o ótimo local ao enfrentar problemas complicados. Para superar essas desvantagens, consideramos adicionar um novo operador local multicaótico ao mecanismo de feedback de biochoque do SMA para compensar a falta de exploração do espaço de solução local com a ajuda da natureza de perturbação do operador caótico. Com base nisso, propomos um algoritmo melhorado, nomeadamente MCSMA, investigando como melhorar a seleção probabilística de operadores caóticos com base no expoente máximo de Lyapunov (MLE), uma propriedade inerente aos mapas caóticos. Implementamos a comparação entre MCSMA com outros métodos de última geração no Congresso IEEE sobre Computação Evolutiva (CEC), ou seja, testes de benchmark CEC2017 e problemas práticos CEC2011 para demonstrar sua potência e realizar treinamento de modelo de neurônios dendríticos para testar a robustez de MCSMA em problemas de classificação. Finalmente, as sensibilidades dos parâmetros do MCSMA, a utilização do espaço de soluções e a eficácia do MLE são discutidas adequadamente.
As estratégias meta-heurísticas estão se tornando cada vez mais uma forma difundida de resolver todos os tipos de problemas de otimização matemática. Ao contrário das heurísticas tradicionais precedentes, as meta-heurísticas podem lidar com uma gama extensa e mais complexa de situações-problema devido à sua generalidade, que não depende das condições específicas de um problema particular1,2. 'Meta' pode ser compreendido como uma espécie de transcendência e extensão do objeto original. Uma meta-heurística é mais uma ideia ou conceito desenvolvido em métodos heurísticos. Estritamente falando, uma heurística é uma solução fixa elaborada pelas características de um determinado problema para obter uma solução melhor. Meta-heurística é uma espécie de procedimento abstrato, que constrói um conjunto de processos ou metodologias universais.
Hoje em dia, à medida que a escala computacional e a complexidade de vários problemas de aplicação de engenharia aumentam, os algoritmos e heurísticas de otimização tradicionais originais podem não mais confrontar a situação prática atual3,4, por exemplo, classificação e simulação de imagens, otimização de estruturas estruturais de construção, parâmetros de energia solar otimização, etc5. Esses problemas são problemas NP-difíceis6 multidimensionais, não lineares e multi-ajustes, que têm colocado grandes desafios ao sistema de computação existente. Como resultado, os cientistas da computação esperam inovar todo o sistema computacional desde os aspectos de hardware e software7,8. É aqui que surgem as meta-heurísticas como uma atualização dos algoritmos da arquitetura subjacente. As meta-heurísticas são um refinamento das heurísticas, que são o produto da combinação de algoritmos estocásticos e busca local. Eles criam um processo que pode eliminar o ótimo local e realizar uma busca robusta no espaço de soluções, coordenando a interação entre melhoria local e estratégias operacionais9. Durante o procedimento, as estratégias de busca são acostumadas a adquirir e dominar as informações para encontrar a solução ótima aproximada de forma eficaz. Portanto, o mecanismo operacional da meta-heurística não é excessivamente dependente do padrão organizacional de uma determinada situação. Este princípio pode ser aplicado difusamente à otimização combinatória e cálculo de funções10,11.
Na meta-heurística, a inteligência de enxame atraiu considerável interesse e atenção de pesquisa nas áreas de otimização, inteligência computacional e ciência da computação nos últimos anos12. Exibe comportamento computacional inteligente através da simples cooperação entre cada inteligência e mostra capacidade de seleção muito mais forte do que um indivíduo no caso de seleção ótima . A otimização de colônias de formigas (ACO) é uma conquista fundamental no desenvolvimento da teoria sistemática da inteligência de enxame. Dorigo et al. investigaram o planejamento real da rota de colônias de formigas e o uso do mecanismo biológico de feromônios, utilizando a concentração de feromônios como índice de qualidade para guiar os indivíduos para o caminho mais curto15. A população da próxima geração determina a rota superior em todo o espaço de acordo com a intensidade do feromônio da geração anterior. Quanto maior a intensidade do feromônio em uma determinada rota, maior será a probabilidade de os indivíduos atrairem essa rota. A rota com maior feromônio pode ser considerada a solução ótima buscada pelo algoritmo16,17. O ACO possui boa capacidade de busca global e é amplamente utilizado em muitas áreas de otimização combinatória . Por exemplo, Gao et al. aprimorou a ideia de agrupamento k-means no ACO e propôs um algoritmo de agrupamento de colônias de formigas que obteve conquistas consideráveis na solução de problemas de roteamento de localização dinâmica . A otimização por enxame de partículas (PSO) difere da ACO porque a PSO presta mais atenção à direção do aprendizado da tomada de decisão e ao compartilhamento colaborativo de informações quando todas as partículas atravessam o espaço da solução . Na iteração por período, cada partícula é obrigada a fazer um julgamento de aprendizagem sobre se deve modificar a rota que é baseada na aptidão para medir a solução ótima global e a solução ótima local. Assim, o PSO acelera a taxa de convergência extraindo o melhor da corrente, e a população de partículas tem uma alta taxa de convergência em termos de exploração. Uma ampla gama de estudos relacionados baseados em PSO já foi implementada em sistemas complexos, otimização tradicional e até mesmo em problemas de engenharia de grande escala22. Os dois algoritmos acima são alguns dos algoritmos de inteligência populacional mais difundidos e bem-sucedidos. E então surgiu um monte de algoritmos meta-heurísticos com ideias de inteligência de enxame, incluindo algoritmo de vaga-lume23, algoritmo de otimização de baleias (WOA)24, algoritmo de polinização de flores25, algoritmo de colônia artificial de abelhas26, etc.