Skip to content

Core Compatibility Report: greedy-whale/v0ยค

๐ŸŸก bioimageio format validation
status valid-format
source https://hypha.aicell.io/bioimage-io/artifacts/greedy-whale/files/rdf.yaml?version=v0
id greedy-whale
format version model 0.5.6
bioimageio.spec 0.5.6.0
Location Details
โœ”๏ธ Successfully created `ModelDescr` instance.
โœ”๏ธ bioimageio.spec format validation model 0.5.6
โš  inputs.0.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.1.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.2.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.3.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.4.sample_tensor
Needs to be filled for FAIR compliance
โš  inputs.5.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.0.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.1.sample_tensor
Needs to be filled for FAIR compliance
โš  outputs.2.sample_tensor
Needs to be filled for FAIR compliance
โŒ weights.pytorch_state_dict Reproduce test outputs from test inputs (pytorch_state_dict)
โŒ weights.pytorch_state_dict
'vit_t'
See Traceback 1.
weights.pytorch_state_dict
recommended conda environment (Reproduce test outputs from test inputs (pytorch_state_dict))
%YAML 1.2
---
name: sam
channels:
  - pytorch
  - conda-forge
  - nodefaults
dependencies:
  - conda-forge::bioimageio.core
  - segment-anything
  - pip:
      - git+https://github.com/ChaoningZhang/MobileSAM.git
  - pip
weights.pytorch_state_dict
conda compare (Reproduce test outputs from test inputs (pytorch_state_dict))
//github.com/chaoningzhang/mobilesam.git not found

Traceback 1








    
โ•ญโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€ Traceback (most recent call last) โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฎ
โ”‚ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    781 โ”‚   โ”‚   test_input = get_test_input_sample(model)                                         โ”‚
โ”‚    782 โ”‚   โ”‚   expected = get_test_output_sample(model)                                          โ”‚
โ”‚    783 โ”‚   โ”‚                                                                                     โ”‚
โ”‚ โฑ  784 โ”‚   โ”‚   with create_prediction_pipeline(                                                  โ”‚
โ”‚    785 โ”‚   โ”‚   โ”‚   bioimageio_model=model, devices=devices, weight_format=weight_format          โ”‚
โ”‚    786 โ”‚   โ”‚   ) as prediction_pipeline:                                                         โ”‚
โ”‚    787 โ”‚   โ”‚   โ”‚   results = prediction_pipeline.predict_sample_without_blocking(test_input)     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   368 โ”‚   โ”‚   โ”‚   f"deprecated create_prediction_pipeline kwargs: {set(deprecated_kwargs)}"      โ”‚
โ”‚   369 โ”‚   โ”‚   )                                                                                  โ”‚
โ”‚   370 โ”‚                                                                                          โ”‚
โ”‚ โฑ 371 โ”‚   model_adapter = model_adapter or create_model_adapter(                                 โ”‚
โ”‚   372 โ”‚   โ”‚   model_description=bioimageio_model,                                                โ”‚
โ”‚   373 โ”‚   โ”‚   devices=devices,                                                                   โ”‚
โ”‚   374 โ”‚   โ”‚   weight_format_priority_order=weights_format and (weights_format,),                 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   166 โ”‚   โ”‚   assert errors                                                                      โ”‚
โ”‚   167 โ”‚   โ”‚   if len(weight_format_priority_order) == 1:                                         โ”‚
โ”‚   168 โ”‚   โ”‚   โ”‚   assert len(errors) == 1                                                        โ”‚
โ”‚ โฑ 169 โ”‚   โ”‚   โ”‚   raise errors[0]                                                                โ”‚
โ”‚   170 โ”‚   โ”‚                                                                                      โ”‚
โ”‚   171 โ”‚   โ”‚   else:                                                                              โ”‚
โ”‚   172 โ”‚   โ”‚   โ”‚   msg = (                                                                        โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   109 โ”‚   โ”‚   โ”‚   โ”‚   try:                                                                       โ”‚
โ”‚   110 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   from .pytorch_backend import PytorchModelAdapter                       โ”‚
โ”‚   111 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚                                                                          โ”‚
โ”‚ โฑ 112 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   return PytorchModelAdapter(                                            โ”‚
โ”‚   113 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   model_description=model_description, devices=devices               โ”‚
โ”‚   114 โ”‚   โ”‚   โ”‚   โ”‚   โ”‚   )                                                                      โ”‚
โ”‚   115 โ”‚   โ”‚   โ”‚   โ”‚   except Exception as e:                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    35 โ”‚   โ”‚   โ”‚   raise ValueError("No `pytorch_state_dict` weights found")                      โ”‚
โ”‚    36 โ”‚   โ”‚                                                                                      โ”‚
โ”‚    37 โ”‚   โ”‚   devices = get_devices(devices)                                                     โ”‚
โ”‚ โฑ  38 โ”‚   โ”‚   self._model = load_torch_model(weights, load_state=True, devices=devices)          โ”‚
โ”‚    39 โ”‚   โ”‚   if mode == "eval":                                                                 โ”‚
โ”‚    40 โ”‚   โ”‚   โ”‚   self._model = self._model.eval()                                               โ”‚
โ”‚    41 โ”‚   โ”‚   elif mode == "train":                                                              โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ”‚
โ”‚                                                                                                  โ”‚
โ”‚   113 โ”‚   โ”‚   if isinstance(weight_spec, v0_4.PytorchStateDictWeightsDescr)                      โ”‚
โ”‚   114 โ”‚   โ”‚   else weight_spec.architecture.kwargs                                               โ”‚
โ”‚   115 โ”‚   )                                                                                      โ”‚
โ”‚ โฑ 116 โ”‚   torch_model = custom_callable(**model_kwargs)                                          โ”‚
โ”‚   117 โ”‚                                                                                          โ”‚
โ”‚   118 โ”‚   if not isinstance(torch_model, nn.Module):                                             โ”‚
โ”‚   119 โ”‚   โ”‚   if isinstance(                                                                     โ”‚
โ”‚                                                                                                  โ”‚
โ”‚ /tmp/tmp2tl_qvfk/predictor_adaptor_c55a850510e70b6b815afbec1d19da92792de97c4cf4384ba95d0024157f5 โ”‚
โ”‚                                                                                                  โ”‚
โ”‚    28 โ”‚   """                                                                                    โ”‚
โ”‚    29 โ”‚   def __init__(self, model_type: str) -> None:                                           โ”‚
โ”‚    30 โ”‚   โ”‚   super().__init__()                                                                 โ”‚
โ”‚ โฑ  31 โ”‚   โ”‚   sam_model = sam_model_registry[model_type]()                                       โ”‚
โ”‚    32 โ”‚   โ”‚   self.sam = SamPredictor(sam_model)                                                 โ”‚
โ”‚    33 โ”‚                                                                                          โ”‚
โ”‚    34 โ”‚   def load_state_dict(self, state):                                                      โ”‚
โ•ฐโ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ”€โ•ฏ
KeyError: 'vit_t'