Skip to content

Core Compatibility Report: faithful-chicken/v0ยค

๐ŸŸก bioimageio format validation
status valid-format
source https://hypha.aicell.io/bioimage-io/artifacts/faithful-chicken/files/rdf.yaml?version=v0
id faithful-chicken
version 1
applied format model 0.5.9
bioimageio.spec 0.5.9.1
Location Details
โœ”๏ธ Successfully created `ModelDescr` instance.
โœ”๏ธ bioimageio.spec format validation model 0.5.9
โš  inputs.0.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.1.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.2.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.3.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.4.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.5.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.0.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.1.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.2.sample_tensor
Needs to be filled for FAIR compliance
โœ”๏ธ weights.pytorch_state_dict Created conda environment '668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119'
โŒ weights.pytorch_state_dict Reproduce test outputs from test inputs (pytorch_state_dict)
โŒ weights.pytorch_state_dict
'vit_t'
See Traceback 1.
weights.pytorch_state_dict
recommended conda environment (Reproduce test outputs from test inputs (pytorch_state_dict))
%YAML 1.2
---
name: sam
channels:
  - pytorch
  - conda-forge
  - nodefaults
dependencies:
  - conda-forge::bioimageio.core>=0.9.4
  - segment-anything
  - pip:
      - git+https://github.com/ChaoningZhang/MobileSAM.git
  - pip
weights.pytorch_state_dict
conda compare (Reproduce test outputs from test inputs (pytorch_state_dict))
//github.com/chaoningzhang/mobilesam.git not found
โŒ weights.pytorch_state_dict Run pytorch_state_dict inference for parametrized inputs
โŒ weights.pytorch_state_dict
'vit_t'
See Traceback 2.

Traceback 1








    
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    877 โ”‚   โ”‚   test_input = get_test_input_sample(model)                                         โ”‚
โ”‚    878 โ”‚   โ”‚   expected = get_test_output_sample(model)                                          โ”‚
โ”‚    879 โ”‚   โ”‚                                                                                     โ”‚
โ”‚ โฑ  880 โ”‚   โ”‚   with create_prediction_pipeline(                                                  โ”‚
โ”‚    881 โ”‚   โ”‚   โ”‚   bioimageio_model=model, devices=devices, weight_format=weight_format          โ”‚
โ”‚    882 โ”‚   โ”‚   ) as prediction_pipeline:                                                         โ”‚
โ”‚    883 โ”‚   โ”‚   โ”‚   prediction_pipeline.apply_preprocessing(test_input)                           โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   404 โ”‚   โ”‚   โ”‚   f"deprecated create_prediction_pipeline kwargs: {set(deprecated_kwargs)}"      โ”‚
โ”‚   405 โ”‚   โ”‚   )                                                                                  โ”‚
โ”‚   406 โ”‚                                                                                          โ”‚
โ”‚ โฑ 407 โ”‚   model_adapter = model_adapter or create_model_adapter(                                 โ”‚
โ”‚   408 โ”‚   โ”‚   model_description=bioimageio_model,                                                โ”‚
โ”‚   409 โ”‚   โ”‚   devices=devices,                                                                   โ”‚
โ”‚   410 โ”‚   โ”‚   weight_format_priority_order=weights_format and (weights_format,),                 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   182 โ”‚   โ”‚   assert errors                                                                      โ”‚
โ”‚   183 โ”‚   โ”‚   if len(weight_format_priority_order) == 1:                                         โ”‚
โ”‚   184 โ”‚   โ”‚   โ”‚   assert len(errors) == 1                                                        โ”‚
โ”‚ โฑ 185 โ”‚   โ”‚   โ”‚   raise errors[0]                                                                โ”‚
โ”‚   186 โ”‚   โ”‚                                                                                      โ”‚
โ”‚   187 โ”‚   โ”‚   else:                                                                              โ”‚
โ”‚   188 โ”‚   โ”‚   โ”‚   msg = (                                                                        โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   112 โ”‚   โ”‚   โ”‚   โ”‚   try:                                                                       โ”‚
โ”‚   113 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   from .pytorch_backend import PytorchModelAdapter                       โ”‚
โ”‚   114 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚                                                                          โ”‚
โ”‚ โฑ 115 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   return PytorchModelAdapter(                                            โ”‚
โ”‚   116 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   model_description=model_description, devices=devices               โ”‚
โ”‚   117 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   )                                                                      โ”‚
โ”‚   118 โ”‚   โ”‚   โ”‚   โ”‚   except Exception as e:                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    35 โ”‚   โ”‚   โ”‚   raise ValueError("No `pytorch_state_dict` weights found")                      โ”‚
โ”‚    36 โ”‚   โ”‚                                                                                      โ”‚
โ”‚    37 โ”‚   โ”‚   devices = get_devices(devices)                                                     โ”‚
โ”‚ โฑ  38 โ”‚   โ”‚   self._model = load_torch_model(weights, load_state=True, devices=devices)          โ”‚
โ”‚    39 โ”‚   โ”‚   if mode == "eval":                                                                 โ”‚
โ”‚    40 โ”‚   โ”‚   โ”‚   self._model = self._model.eval()                                               โ”‚
โ”‚    41 โ”‚   โ”‚   elif mode == "train":                                                              โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   113 โ”‚   โ”‚   if isinstance(weight_spec, v0_4.PytorchStateDictWeightsDescr)                      โ”‚
โ”‚   114 โ”‚   โ”‚   else weight_spec.architecture.kwargs                                               โ”‚
โ”‚   115 โ”‚   )                                                                                      โ”‚
โ”‚ โฑ 116 โ”‚   torch_model = custom_callable(**model_kwargs)                                          โ”‚
โ”‚   117 โ”‚                                                                                          โ”‚
โ”‚   118 โ”‚   if not isinstance(torch_model, nn.Module):                                             โ”‚
โ”‚   119 โ”‚   โ”‚   if isinstance(                                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /tmp/tmp5vgn3562/predictor_adaptor_c55a850510e70b6b815afbec1d19da92792de97c4cf4384ba95d0024157f5 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    28 โ”‚   """                                                                                    โ”‚
โ”‚    29 โ”‚   def __init__(self, model_type: str) -> None:                                           โ”‚
โ”‚    30 โ”‚   โ”‚   super().__init__()                                                                 โ”‚
โ”‚ โฑ  31 โ”‚   โ”‚   sam_model = sam_model_registry[model_type]()                                       โ”‚
โ”‚    32 โ”‚   โ”‚   self.sam = SamPredictor(sam_model)                                                 โ”‚
โ”‚    33 โ”‚                                                                                          โ”‚
โ”‚    34 โ”‚   def load_state_dict(self, state):                                                      โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
KeyError: 'vit_t'

Traceback 2








    
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   1120 โ”‚   try:                                                                                  โ”‚
โ”‚   1121 โ”‚   โ”‚   test_input = get_test_input_sample(model)                                         โ”‚
โ”‚   1122 โ”‚   โ”‚                                                                                     โ”‚
โ”‚ โฑ 1123 โ”‚   โ”‚   with create_prediction_pipeline(                                                  โ”‚
โ”‚   1124 โ”‚   โ”‚   โ”‚   bioimageio_model=model, devices=devices, weight_format=weight_format          โ”‚
โ”‚   1125 โ”‚   โ”‚   ) as prediction_pipeline:                                                         โ”‚
โ”‚   1126 โ”‚   โ”‚   โ”‚   for n, batch_size, inputs, exptected_output_shape in generate_test_cases():   โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   404 โ”‚   โ”‚   โ”‚   f"deprecated create_prediction_pipeline kwargs: {set(deprecated_kwargs)}"      โ”‚
โ”‚   405 โ”‚   โ”‚   )                                                                                  โ”‚
โ”‚   406 โ”‚                                                                                          โ”‚
โ”‚ โฑ 407 โ”‚   model_adapter = model_adapter or create_model_adapter(                                 โ”‚
โ”‚   408 โ”‚   โ”‚   model_description=bioimageio_model,                                                โ”‚
โ”‚   409 โ”‚   โ”‚   devices=devices,                                                                   โ”‚
โ”‚   410 โ”‚   โ”‚   weight_format_priority_order=weights_format and (weights_format,),                 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   182 โ”‚   โ”‚   assert errors                                                                      โ”‚
โ”‚   183 โ”‚   โ”‚   if len(weight_format_priority_order) == 1:                                         โ”‚
โ”‚   184 โ”‚   โ”‚   โ”‚   assert len(errors) == 1                                                        โ”‚
โ”‚ โฑ 185 โ”‚   โ”‚   โ”‚   raise errors[0]                                                                โ”‚
โ”‚   186 โ”‚   โ”‚                                                                                      โ”‚
โ”‚   187 โ”‚   โ”‚   else:                                                                              โ”‚
โ”‚   188 โ”‚   โ”‚   โ”‚   msg = (                                                                        โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   112 โ”‚   โ”‚   โ”‚   โ”‚   try:                                                                       โ”‚
โ”‚   113 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   from .pytorch_backend import PytorchModelAdapter                       โ”‚
โ”‚   114 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚                                                                          โ”‚
โ”‚ โฑ 115 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   return PytorchModelAdapter(                                            โ”‚
โ”‚   116 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   model_description=model_description, devices=devices               โ”‚
โ”‚   117 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   )                                                                      โ”‚
โ”‚   118 โ”‚   โ”‚   โ”‚   โ”‚   except Exception as e:                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    35 โ”‚   โ”‚   โ”‚   raise ValueError("No `pytorch_state_dict` weights found")                      โ”‚
โ”‚    36 โ”‚   โ”‚                                                                                      โ”‚
โ”‚    37 โ”‚   โ”‚   devices = get_devices(devices)                                                     โ”‚
โ”‚ โฑ  38 โ”‚   โ”‚   self._model = load_torch_model(weights, load_state=True, devices=devices)          โ”‚
โ”‚    39 โ”‚   โ”‚   if mode == "eval":                                                                 โ”‚
โ”‚    40 โ”‚   โ”‚   โ”‚   self._model = self._model.eval()                                               โ”‚
โ”‚    41 โ”‚   โ”‚   elif mode == "train":                                                              โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/668c740b436506ad2ddff14f48c19d8b1c5b1cad5a53e332986ec9aaabd10119/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   113 โ”‚   โ”‚   if isinstance(weight_spec, v0_4.PytorchStateDictWeightsDescr)                      โ”‚
โ”‚   114 โ”‚   โ”‚   else weight_spec.architecture.kwargs                                               โ”‚
โ”‚   115 โ”‚   )                                                                                      โ”‚
โ”‚ โฑ 116 โ”‚   torch_model = custom_callable(**model_kwargs)                                          โ”‚
โ”‚   117 โ”‚                                                                                          โ”‚
โ”‚   118 โ”‚   if not isinstance(torch_model, nn.Module):                                             โ”‚
โ”‚   119 โ”‚   โ”‚   if isinstance(                                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /tmp/tmp5vgn3562/predictor_adaptor_c55a850510e70b6b815afbec1d19da92792de97c4cf4384ba95d0024157f5 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    28 โ”‚   """                                                                                    โ”‚
โ”‚    29 โ”‚   def __init__(self, model_type: str) -> None:                                           โ”‚
โ”‚    30 โ”‚   โ”‚   super().__init__()                                                                 โ”‚
โ”‚ โฑ  31 โ”‚   โ”‚   sam_model = sam_model_registry[model_type]()                                       โ”‚
โ”‚    32 โ”‚   โ”‚   self.sam = SamPredictor(sam_model)                                                 โ”‚
โ”‚    33 โ”‚                                                                                          โ”‚
โ”‚    34 โ”‚   def load_state_dict(self, state):                                                      โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
KeyError: 'vit_t'